INTELIGENCIA ARTIFICIAL: J. Cardeñosa

Si algo se menciona en los últimos meses en todo tipo de medios es la etiqueta "inteligencia artificial". Como si fuera algo nuevo algo que incluso dio nombre a una película ya hace años. Ahora de repente todas las grandes empresas resulta que tienen productos "de lo más avanzados" porque tienen dentro Inteligencia Artificial. Pero ¿es así? ¿Son tan avanzados? ¿Resuelven mejor los problemas de siempre? ¿O son problemas nuevos? Yo mismo me quedaría perplejo si no es porque no es la primera vez que la Inteligencia Artificial se pone de moda....


Vuelvo de nuevo a este blog, que existía antes de que la Inteligencia Artificial (IA) se pudiera de nuevo de moda. Hubo un hecho en mis escritos anteriores que me desanimó un poco a seguir escribiendo sobre fabulosas tecnologías que podrían ayudarnos a vivir mejor. Como pueden ver en el artículo que escribí a propósito fue el accidente de tren de Galicia. Tanta tecnología disponible y ¿seguían nuestros fabulosos trenes a merced del manejo manual de un conductor? En fin, no volveré sobre aquel tema.

​En este tiempo sí ha ocurrido algo que nos atañe. Se ha puesto de moda de nuevo la Inteligencia Artificial. Es una solución fantástica a todos los problemas y no solo a los que hay sino a los que vendrán. Destacadas personalidades del mundo científico piensan cosas inimaginables en cuanto a su poder. Se habla con toda naturalidad de que las máquinas acabarán pudiendo a la inteligencia humana, etc, etc...de repente surgen empresas que resulta que son especialistas en IA desde hace ni se sabe cuanto. Surgen las siglas, IA, 3D, 4D 3G, 4G pronto vendrá el 5...los que tenemos ya un cierto recorrido, nos parece haber visto esto ya antes. 

​Como seguiré escribiendo del tema, hoy me voy a centrar en una de las etiquetas más nombradas como propio de la IA. "machine learning" (o aprendizaje automático). Una de las cosas que he leído en alguna parte es sobre sistemas que tienen "Inteligencia Artificial y machine learning". Esto es una redundancia. el "machine learning" es una de las disciplinas de la IA. Ha habido muchas técnicas asociadas al machine learning (ML) ​pero las que más se tienen en cuenta en la actualidad son las basadas en tratamiento de grandes volumenes de datos y detección de patrones en los mismos. En realidad uno de mis alumnos del Master oficial de IA de mi universidad me preguntaba el otro día si podía asociarse ML a métodos para clasificar datos y en que se diferenciaba eso de lo que siempre se llamó clustering. Parece claro que si un fenómeno que se produce somos capaces de asociarlo a otros similares al igual que hace un ser humano, podría decirse que dicho ser humano ha aprendido a identificar hechos similares y que de alguna manera la máquina es capaz de hacerlo igualmente. Los que nos dedicamos a la ingeniería lingüística sabemos un poco de ese problema. ¿Como sabemos en que carpeta se debe meter un documento nuevo que aparece en una gran colección? 

​Estoy dirigiendo una tesis de Master titulada "30 años de Inteligencia Artificial. ¿Algo nuevo?" . Bueno, les seguiré contando de todo esto. Otro día les cuento por qué esta oleada de IA es la cuarta, aunque en uno de los primeros artículos que escribí hace años ya les conté un poco.
Jesús Cardeñosa
Comentarios Martes, 2 de Enero 2018


Facebook Twitter LinkedIn Google Meneame Viadeo Pinterest

Se relata en esta ocasión mi asistencia a una conferencia internacional FQAS 2013 donde presentábamos un artículo de nuestra linea de investigación y donde además organizabamos una sesión especial. Se aportan datos y direcciones para los interesados en esta area.


Esta pasada semana estuve en la conferencia internacional FQAS2013 que tuvo lugar en Granada (España). Llevamos mi Grupo de investigación y yo 13 años involucrados en esta conferencia, ya sea como autores de artículos ya como organizadores de una sesión especial que solemos llamar “Intelligent information extraction from texts”. La duración fue de 3 días y el nivel medio de los artículos bastante bueno. Hubo tres conferencias magistrales (una cada día) y sin quitar méritos a los otros dos me gustaría remarcar la que impartió Ronald Yager, fundador de lo que luego se llamó “Lógica difusa” que acompañada de otras tecnologías llegó a denominarse “soft computing”.

Las siglas de este evento quieren decir “Flexible Query Answering Systems” y la palabra Flexible tiene que ver con las aplicaciones de “soft Computing”. Este área es una de las más representativas del mundillo de la Inteligencia Artificial y donde ha habido aplicaciones en la industria bastante numerosas. En esta ocasión acudíamos patrocinados por la empresa de la que les voy contando la historia en este blog [www.dail-software.com] y como una de las aportaciones era filmar la producción de un artículo científico desde la idea hasta su presentación final en un congreso. Eso lo hemos hecho con la colaboración de la empresa EGauss [http://egauss.com/] que está involucrada con nosotros en varias iniciativas. Una de ellas la producción de este documental. Para ello hubo de viajar a Granada también un cámara quien se sintió especialmente interesado por el evento cuando le conté que el estabilizador de imagen de la cámara que llevaba era una de las aplicaciones de la lógica difusa.

Ronald Yager, quien me sigue impresionando por la energía que transmite cuando cuenta a donde han llegado las tecnologías que inventó, explicó decenas de aplicaciones e hizo numerosas consideraciones sobre lo que se había avanzado en algunas ramas de la IA y en particular las tecnologías soft. Da gusto ver a gente así contar las cosas de manera que las entendería casi cualquiera que les escuchase . Y aunque hay carga matemática en las mismas, no es exagerada. Y es que numerosas publicaciones científicas en este área cubren a veces la falta de grandes aportaciones con una barrera matemática a veces difícil de interpretar.

De hecho es un tema que salió a colación en la conferencia. La carga matemática, el mito del “modelo matemático” como garantía de precisión y verdad es exagerado en muchos casos, pues un modelo puede ser malo, por muy matemáticamente formulado que esté. En cualquier caso y por otro lado no debemos olvidar que la expresión matemática formal es casi indispensable para la computación.

La conferencia transcurrió con interés y como siempre el número de personas no era alto (del orden de  80-100) que es un tamaño muy representativo para conferencias tan especializadas como ésta. Nuestra sesión fue corta pues falló el autor de un artículo (no vino) quedándose en tres artículos – presentaciones. El nivel de relaciones fue alto y cordial. La organización impecable y las visitas de carácter social y turístico espectaculares. Terminó la velada y el encuentro la tarde noche del viernes con una exhibición de flamenco durante la cena final. Al final del todo cuando tocaron “sevillanas” la propia Presidente del Congreso, María José adornó el cierre con su baile junto a las compañeras de su departamento .

Me agradó mucho comprobar que el trayecto desde Madrid en coche fue comodísimo y en 4 horas sin correr estábamos ya en Granada. (425 kms). Los Proceedings de la conferencia se han publicado en un tomo de Lecture Notes de Springer. Nuestro artículo tiene un DOI: 10.1007/978-3-642-40769-7_57 por si les interesa saber lo que fuimos a presentar; es nuestra línea más moderna en los trabajos que estamos haciendo de sistemas QA (pregunta – respuesta). La web donde pueden encontrar todos los artículos de esta conferencia es: http://authormapper.com/search.aspx?q=fqas+2013
Jesús Cardeñosa
Comentarios Martes, 24 de Septiembre 2013


Facebook Twitter LinkedIn Google Meneame Viadeo Pinterest

Los métodos para detectar el sentido de opiniones de una manera más o menos automática son objeto de investigación en todo el mundo. Una vuelta de tuerca es la detección no del sentido, si no de las razones de una opinión. La detección automática de argumentos de opiniones es un problema pendiente de resolución.


Antes de pasar a seguir contándoles el “inventario” que interrumpí por los comentarios derivados del accidente ferroviario, quiero aprovechar mis últimos comentarios sobre la tecnología como soporte de los sistemas democráticos en el futuro cercano, para contarles algo en lo que mi grupo de investigación está involucrado hace dos o tres años por invitación del prestigioso investigador José María Moreno Jiménez de la universidad de Zaragoza, uno de los mayores expertos españoles en el tema de la “e-democracy” es decir, la democracia electrónica. Cuando empezamos la colaboración, él junto a sus colaboradores habían conseguido diseñar unos modelos matemáticos para estimar las tendencias de voto, o tendencias de opinión a partir de foros de opinión en la que los usuarios esbozaban unas opiniones en base a unos parámetros.

Sin embargo, él tenía la intuición de que si complementase su modelo con técnicas de “text mining” (minería de textos) los resultados podrían mejorar sustancialmente. El problema cuando nos lo planteó pareció más sencillo de lo que luego fue. El lenguaje utilizado en los foros, más que un tipo de jerga es errático y mal escrito, la ortografía brilla por su ausencia y la redacción de los comentarios es muy pobre. A pesar de ello, utilizamos técnicas casi del único tipo que las conocidas hasta ese momento para este tipo de cosas [este “tipo de cosas” se denomina genéricamente “sentiment analysis” cuya traducción más certera sería “análisis de opinión”.] Los resultados fueron interesantes. Todos están publicados (si buscan bibliografía reciente con nuestros nombres les saldrán cosas). En resumen, más del 80%  de las opiniones vertidas eran detectadas correctamente por el sistema de minería de textos cuando la opinión era positiva. Muchas menos (menos del 40%) de las opiniones negativas eran correctamente captadas por el modelo nuestro. Es una cuestión curiosa pues parece como si las personas al tener que explicar una opinión, no fueran demasiado agresivas (marcando poco la negatividad) si eran negativas y sin embargo el voto luego era negativo. Es todo un tema a seguir estudiando.

Sin embargo, las aproximaciones basadas en procesamiento del lenguaje natural son difíciles de aplicar a estos foros, donde como ya hemos comentado el lenguaje es tan incorrecto y tan errático que a veces ni siquiera una lectura directa por una persona es capaz de entender bien el sentido de una opinión allí vertida.

La siguiente vuelta de tuerca donde José María Moreno nos sugirió trabajar era algo mucho más difícil aún.  Ya no íbamos a ir a buscar el sentido de unas opiniones sino las razones que sustentan una opinión. Que en definitiva es lo que puede interesar a un político para saber por qué un ciudadano está de acuerdo o en desacuerdo con una medida, o una empresa para saber por qué un producto se vende o no se vende. Es un paso más allá donde las dificultades son aún extremas. Hasta el momento estamos trabajando bastante solos, en sentido de que hay muy poco escrito sobre este tema aunque se reconozca el enorme interés. Muy recientemente la revista (journal) “Computers in human behavior” ha aceptado para publicación un artículo nuestro donde al menos contamos la metodología a seguir para comenzar a estudiar estos temas. El área de trabajo la hemos denominado “arguments' extraction” o extracción de argumentos de opiniones. A pesar de todo, los primeros experimentos han resultado prometedores. Seguiremos trabajando y haciendo lo que podamos a base de nuestro tiempo. Nos ha tocado una mala época para la investigación en nuestro país. Pero seguiremos…..cuando tengamos algo más se lo iré contando.

Aunque es una cosa muy actual en nuestras investigaciones creemos que el tema es de suficiente relevancia. ¿Se imaginan ustedes que nuestros dirigentes políticos supieran las razones que motivan un voto positivo o negativo? No sé qué decirles, quizás a ellos les encantaría porque para atraer votos bastaría con prometer todo lo que saliese como carencia. Otra cosa es que tras prometerlo lo cumpliesen. Pero imaginemos por un momento que el político tiene intención real de hacer cosas acorde a los deseos de los ciudadanos, sería una de esas herramientas que comentábamos en el artículo anterior que serían bases para una democracia real. De hecho este proyecto inicial comenzó a partir de una subvención de la Diputación General de Aragón. Seguiremos trabajando, José María con sus modelos matemáticos y nosotros con nuestro modelos de Ingeniería Lingüística.

Bitácora

Las democracias realmente representativas del tercer milenio deberán soportarse en el uso sistemático de la tecnología. Pero hay que querer.


La desafección política en España no es la única de los países democráticos del mundo. Sin embargo, la coincidencia de medidas extremadamente duras hacia la población debidas a los efectos de una crisis económica sin precedentes, combinada con los casos de corrupción hasta hoy impunes en casi todos los ámbitos de la política hacen que un pueblo se sienta como poco estafado y engañado por sus políticos.

No voy a entrar en cuestiones de legitimidad de los políticos que consiguen los votos prometiendo cosas que luego incumplen sistemáticamente "porque no queda otro remedio", pero sí de representatividad, porque lo que está claro es que quienes hacen eso incumplen de manera fehaciente los compromisos adquiridos con sus ciudadanos. Ese estilo de "democracia", del que apenas se ven unas pocas voces en contra en el ámbito político -puesto que es de hecho la práctica política habitual-, basado en los votos conseguidos de una manera poco clara y transparente (no me puedo creer que quienes ganan elecciones prometiendo cosas que saben que no podrán ser cumplidas, lo hacen de buena fe porque no sabían la "verdad" de la situación, porque entonces es que son muy malos políticos y en consecuencia poco preparados para llevar el timón de un país) requiere decisiones firmes en contra y acciones decididas en otras direcciones.

Sin embargo, muchas de estas situaciones tendrían hoy un remedio que no tenían simplemente hace unos años. Ese remedio si hay voluntad política vendría de la mano del uso de la tecnología. En estos tiempos que corren, ha tenido que ser el gobernador del estado de Rio Grande do Sul (Brasil) quien hable de una nueva democracia mucho más real donde las leyes podrían ser votadas directamente por los ciudadanos, donde los políticos podrían saber casi en tiempo real por qué los ciudadanos quieren o no algo. Pero sobretodo, una tecnología que da a los ciudadanos una oportunidad para redefinir la práctica del concepto de democracia.

Tengo que reconocer que como español me invade una especie de desesperanza de que nuestros políticos den pasos en ese sentido. Eso que se ha dado en llamar Gobierno Electrónico está más asociado a que presentemos nuestra declaración de impuestos a través de Internet que para que como ciudadano podamos participar en las decisiones que nos conciernen. Hoy se podría hacer un referéndum con un coste mínimo haciendo la consulta a través de nuestros móviles (nos dirán que si la seguridad, que si la suplantación de la personalidad, etc, etc pero es la misma que permite que usted maneje su banco). Hoy no hay nada que impida que sean los ciudadanos o conjuntos grandes de ciudadanos especializados en diversas materias los que fueran votantes de leyes asimismo muy especializadas en sus temas. No hay nada que impida que si no una población entera qué sé yo, 100.000 personas (por ejemplo) elegidas aleatoriamente votasen leyes de carácter general, menos especializadas. Qué duda cabe que si eso ocurriera, muchos de nuestros políticos se quedarían sin "su" empleo. Tendríamos quizás entonces gente mejor preparada, que propusiera leyes mejor hechas, mejor explicadas y más representativas y con la confianza de ser claramente apoyadas por una población. Todo eso podría hacerse con tecnología de hoy. Si, de hoy, no habría que hablar de muchos años por delante. Pero claro, hay que querer.

Termino comentando una propuesta desde un partido político en España para que se considere delito que alguien mienta en el parlamento sobre ciertas cuestiones. ¿Y como se podría evitar que un político mintiera directamente a los ciudadanos consiguiendo los votos en base a unas promesas que luego incumple sistemáticamente? Hay soluciones para todo y entra de nuevo la tecnología por en medio. Nada impide a un político prometer una serie cosas que forman su línea roja intraspasable, de manera que si luego las "circunstancias" le impiden cumplirlas quedase obligado a una consulta a los ciudadanos (o a una parte de ellos que se considerase representativa) y si dicha consulta no sale positiva para dicho político, quedase cesado de inmediato. En el fondo no es tan difícil. Esta y otras muchas propuestas. Y como dice el gobernador brasileño antes mencionado, si no se hace es porque no se quiere. La tecnología hoy ya lo permite. Y no entro en cuestiones muy tecnológicas porque en el fondo este tema tecnológicamente no es tan complicado.

¿Su implantación económica? Posiblemente menos de lo que cuesta una sola campaña electoral. Pero hay que querer. Luego, nuestros políticos se extrañan de que la desafección vaya con casi todos y no con unas ideas u otras. Pero la realidad es terca. Hoy un simple teléfono móvil sirve para informarnos antes que nadie de lo que ocurre al otro lado del mundo.  O para convocar una manifestación. Es decir, la tecnología en general y los sistemas de información y comunicaciones en particular, deberán estar presentes en todo aquello que se está dando en llamar regeneración democrática. Porque este concepto es algo más que cambiar algunas pocas cosas para seguir con más de lo mismo. Cualquier cambio que no incluya mecanismos para que el ciudadano participe de verdad en la gestión de su país será seguir con unas poblaciones cada vez más apartadas de clases que toman decisiones completamente aparte de ellos. Eso me recuerda a formas de gobierno de hace muchos siglos…más de lo que cabría esperar del tercer milenio…
Jesús Cardeñosa
Comentarios Domingo, 18 de Agosto 2013


Facebook Twitter LinkedIn Google Meneame Viadeo Pinterest

Los hechos más graves de este mundo rara vez tienen una sola causa. Cuando ocurren, se descubre muchas veces que coincidieron una serie de situaciones de muy baja probabilidad. Pero alguna vez ocurren. El trabajo riguroso de todos los intervinientes evita muchas de estas situaciones: Esperemos que se tome nota de lo ocurrido. Por todos a quienes competa.


Algunos de ustedes me han escrito en relación a lo que escribí el otro día por el accidente de tren. Me piden alguna opinión. No quiero en este blog entrar en polémicas pero ya que me han hecho alguna pregunta, trataré de darles una opinión sencilla. Hemos asistido estos días a titulares en la prensa que personalmente me sorprendieron bastante. Sobretodo aquellos que de inmediato culpaban al maquinista -por parte, al parecer de directivos de ADIF o RENFE-. Me pareció prematuro y muy típico de este país, echar las culpas a otro de inmediato. Luego unas declaraciones (al parecer) del maquinista etc…seguramente, ninguna de estas noticias reflejaba la realidad estricta o al menos toda la realidad.

Pero en este accidente hay varios componentes que solo se sabrán cuando se termine la investigación. Uno es hasta qué punto el maquinista falló. Porque doy por hecho que no fue intencionado (no el ocasionar tantos muertos, pero sí el correr un poco más, por ejemplo) y que el maquinista estaba en perfectas condiciones de salud y psicológicas. Pero podría haber ocurrido que el maquinista no se encontrase bien, que ese día estuviera menos concentrado que otros o incluso que tuvo un mal momento. Imagínense que aunque este no ha sido el caso, el maquinista se marea, o se desmaya…

Fue precisamente el mundo del ferrocarril el que hace muchísimo tiempo instaló en los trenes un dispositivo llamado "hombre muerto", consistente en un pedal o botón que el maquinista debía apretar cada cierto tiempo, para evitar que el tren se parase automáticamente en prevención de un accidente. Este tipo de dispositivo no sé la forma que habrá tomado hoy en día, pero sin conocer los sistemas de seguridad de los que se habla estos días en la prensa les aseguro que siendo dispositivos de control automático y sin demasiada inteligencia (artificial) se puede prevenir casi cualquier situación de un medio de transporte para evitar un accidente.

Así que la pregunta que me hago es por qué quienes tienen la responsabilidad de garantizar la máxima seguridad en estos trenes no exigieron que un tren que puede circular a nada menos que 200 kms/hora no tuviera los dispositivos de seguridad adecuados y que en caso de una situación de "hombre muerto" (por ejemplo una situación en la que el maquinista no hubiese frenado a tiempo) estos dispositivos hubiesen asegurado que el tren no se salía de unos márgenes de seguridad. Así pues, cargar de entrada contra el elemento humano y único de esta historia me parece cuanto menos aventurado.

Y no debemos olvidar que las estadísticas son aplastantes. El fallo humano está detrás de la mayoría de los accidentes de transporte y eso cuando la tecnología (si se aplica o se usa) garantiza niveles de seguridad altísimos incluso asumiendo riesgo de fallo de la misma.

Resumiendo, es  aventurado e imprudente a mi juicio culpar a un solo elemento en este desgraciado accidente. Y desde luego, no me parece muy afortunado que los responsables de la empresa antes de cualquier otra averiguación carguen contra el maquinista (si es que ha sido así). El maquinista tiene la responsabilidad que tiene y quienes están a cargo de garantizar la seguridad en caso de fallo (voluntario o involuntario del maquinista) también la tienen. Y quienes permitieron que ese tramo estuviese en funcionamiento sin las medidas de seguridad adecuadas también tienen la suya (repito, si es que fue así). Y es que a veces, eso de inaugurar las cosas antes de estar completadas tiene consecuencias funestas por muy improbables que sean.

En fin, esto seguramente será como otras veces, una desgraciada cadena de circunstancias. Criterio tienen  los jueces para encontrar la responsabilidad de cada parte. Pero las leyes son para este mundo. Sin embargo, la pregunta que muchos se harán, seguramente los familiares de los fallecidos es sobre ¿quién tiene la culpa (moral o política) de este monumental desaguisado?

No puedo decir mucho más que lo poco que sé a través de la prensa. Y esto que escribo no es un dictamen, es mi opinión y reflexión personal. Hay que esperar que termine la investigación. Eso nos dirá las cosas. Hasta entonces, prudencia. Volveremos en el próximo post con nuestro inventario.
Jesús Cardeñosa
Comentarios Martes, 30 de Julio 2013


Facebook Twitter LinkedIn Google Meneame Viadeo Pinterest

La catástrofe del accidente de tren ocurrido en Galicia me ha dejado estupefacto. Algunas reflexiones


Recuerdo mi viaje de estudios de mi carrera a Munich. Si algo nos llamó la atención a todos fue el metro. Se había hecho para las Olimpiadas y al principio iba sin conductor. Todo era automático. Cuando los pasajeros supieron que no había conductor se negaron a subir al metro por lo cual -según nos explicaron entonces-,, a partir de ese momento había una persona en el puesto de conductor con un matiz. No hacía nada. Simplemente a los pasajeros les daba tranquilidad y seguridad que quien manejase el tren fuera un ser humano.

Hoy en día, hay muchos más sistemas de transporte sin conductor humano, incluyendo trenes que llevan a pasajeros de una terminal de un aeropuerto a otra. Y no pasa nada. Ha habido accidentes de aviones, ahora está catástrofe del tren. Y no me la explico. Habrá que esperar a ver qué ha pasado, pero si ya era una catastrofe un accidente de tren cuando iban a 80 kms/hora figurense a cientos de kms/hora. Qué es lo más probable si algo fatídico tiene que fallar, que falle la tecnología o que falle el factor humano ya a nivel de conductor, ya en la cadena de seguridad?

Y no echo leña al fuego. Si la conducción del tren depende de un solo conductor y de su responsabilidad o pericia, cómo prevenir que sufra un mareo o un desmayo y el tren se desboque? ¿Qué ha pasado? Hay tecnología sobrada para que su aplicación sea más segura que el fallo humano. No soy un defensor a ultranza de la tecnología pero las estadisticas son arrasadoras, sobretodo en medios de transporte.

Hoy hay una cosa de la que ya se habla sin gran secreto, son los drones, esos aviones no tripulados que hacen todo, despegan, aterrizan, hacen sus misiones militares o civiles y no llevan piloto. (por cierto durante mucho tiempo años atrás fueron confundidos con ovnis).

En fin esperemos a saber que ha pasado en Galicia, qué ha fallado y esperemos que se tome nota mirando hacia el futuro con una cierta proyección. Nuestras condolencias al desconsuelo de esas familias.

Jesús Cardeñosa
Comentarios Jueves, 25 de Julio 2013


Facebook Twitter LinkedIn Google Meneame Viadeo Pinterest

De como un sistema de los años 90 para agilizar la gestión empresarial sería recuperable en idea y en sistema al momento actual. La importancia de la adecuada documentación técnica del software.


Quien me iba a decir a mí que hace solo unos días he estado hablando de este sistema como de extremada validez hoy en día. Así que tras la conversación del otro día me fui a revisar casi nostálgicamente los antiguos documentos. Quedé contento. Lo tenía todo. Si tenemos que hacer algo parecido o mejor, tenemos material de partida para hacerlo para quien pueda solicitarlo. Habría que, eso sí, reimplementarlo. Es decir, reprogramarlo de nuevo acorde a nuevos lenguajes de programación, nuevos entornos de Bases de datos y adaptarlo a los sistemas actuales que un cliente pueda tener o si no los tiene aún, va a querer tener.

En mi asignatura de "Validación de software" una de las cosas -si no la que más importancia tiene-, es la producción de documentación técnica de software. Y es uno de los grandes problemas para el mantenimiento del software. Muchos de los que lean esto, al igual que me dicen mis alumnos que trabajan en empresas, seguramente se sentirán identificados entre ellos como "no productores" de documentación técnica del software producido. Y no acabo de saber si es que no saben o no quieren. No hay que olvidar que la producción de documentación técnica de software se lleva más tiempo que la programación (un poquitín más por término medio) y por supuesto, eso que se ahorra el que "produce".

La picaresca llega al término de que un día un alumno me dijo que con las "metodologías ágiles" precisamente no habia que producir esa documentación o al menos toda ella. Le tuve que replicar que las metodologías ágiles precisamente lo que hay que producir con mucho esmero es la documentación técnica. De nuevo tuve que deducir o desconocimiento o intención en la ausencia de producción de dicha documentación.

Para mi es una cosa inherente, es decir, no es concebible producir programas y no documentarlos. Eso es una forma de "sisar" al cliente una parte del trabajo que hay que hacer. Pero por el otro lado el cliente tampoco sabe que documentación pedir. El resultado es que el cliente de hoy acepta un software para el que siempre tiene prisa, sin darse cuenta de que antes o después ese sistema va a necesitar mantenimiento (cambios) y si no hay documentación técnica en muchas ocasiones quien ha de hacer esos cambios, en realidad ya no serán cambios sino reconstrucción completa de módulos enteros a precios exorbitados en relación a lo que hubiese costado de haber habido dicha documentación.

Es curioso este fenómeno porque en otras ingenierías sería inconcebible que una casa, o un barco, o un avión, o un automóvi,l o un puente, no se hicieran acorde a planos y cálculos y que tras terminar todos esos sistemas no se guardasen celosamente esos planos y cálculos por si hubiese que hacer cambios. Es uno de los problemas de la ingeniería informática al menos en España, y es que aunque se llame así al profesional (Ingeniero) no hay colegios de ingenieros que se ocupen de visar proyectos, es decir, de comprobar que se entrega lo que se ha hecho y que lo hecho es lo que había que hacer. ¿Les resulta familiar esta situación? A mí, en mi propia experiencia mucho. De hecho estoy pensando en organizar un curso para clientes (sí, para quienes pagan sistemas) de software, para enseñar a un cliente qué debe exigir al ingeniero a o su empresa.

En fin, yo tengo la documentación y los "planos" de aquel sistema de los años 90 aun válido hoy en día. Y a pesar de ser complejo, podríamos rehacerlo, en meses. Y desde luego nada que ver con volverlo a hacer desde cero. Les voy a contar brevemente lo que hacía aunque ya le he mencionado algún detalle antes. Teníamos entonces un estudio que demostraba que nada menos que el 40% del tiempo de trabajo en una empresa se iba en dos actividades, una era buscar documentación Ya trataremos ese tema más adelante) y otra en leer documentación que le llegaba a uno indebidamente y redirigirla a quien correspondía. No tengo idea de cuánto sería ese porcentaje hoy en día. Sería un curioso estudio.

En todo caso esa casuística le será conocida a muchos de ustedes. El sistema permitía como ya les conté, que llegase un documento electrónico a una única dirección por empresa, se registraba automáticamente, se clasificaba en una serie de buzones virtuales y luego estaba el sistema de distribución, es decir, el que llevaba esos documentos al escritorio de la persona a quien correspondía. Como ya les conté el índice de fallos era sorpresivamente bajo (menos del 5%).

Bueno, pues ya han visto en primera línea como algo de los años 90 (en forma de "planos" y know-how) acaba de pasar al inventario. Como nos pongamos a "revolver cajones", a saber las cosas que vamos a sacar y que vamos a incorporar al "inventario". Les dejo por hoy. Sigo otro día, que como ya le dije, aún estamos a mediados de los 90. Ya vamos rescatando cosas.
Jesús Cardeñosa
Comentarios Martes, 16 de Julio 2013


Facebook Twitter LinkedIn Google Meneame Viadeo Pinterest

Un proyecto de la UE integró en una misma plataforma sofisticados sistemas de soporte a la gestión de grandes organizaciones. Les contamos como nos fuimos metiendo en el campo de la Ingeniería Lingüística.


Esta semana pasada he estado en Lisboa. El motivo era académico. Pertenezco a una de las comisiones evaluadoras de la agencia de acreditación de Portugal de títulos universitarios de Informática.  Pude sacar tiempo para conversar con mi colega Palmira Marrafa (ya referenciada en el artículo de este blog como directora de Sara Mendes cuando leyó su tesis doctoral) y nos hemos asegurado la cooperación en la exploración de usos de las aplicaciones de esa empresa que subyace a lo que les voy contando últimamente. Lo que si vamos a hacer de inmediato es la adaptación de las aplicaciones que desarrollemos a la lengua portuguesa.

No pude sin embargo ver a un viejo colega y que viene a colación de lo que les voy contando. Este colega portugués fue el coordinador del Proyecto ORCHESTRA que ya les había mencionado. Y del que les contaré algo hoy. Este macro proyecto de la UE y de casi 10 socios de varios países trató de desarrollar desde una plataforma UNIX pero "bonita" y fácil de usar por sus administradores que se llamó ELENIX, a una serie de aplicaciones empresariales entre las que les comentaré algo más de dos de ellas, pues fueron las que participamos nosotros.

Uno de esos sistemas fue un sistema de negociación, de soporte a las negociaciones y de ayuda a la toma de decisiones. Lo que hicimos fue tomar varios modelos de liderazgo y toma de decisiones colectivas e integrarlos. Y después implementar un sistema computacional con dichos modelos. Este trabajo nos produjo varias publicaciones científicas de calidad (aún citadas hoy en día). Podrán ver esas publicaciones si tienen interés en la producción científica de nuestro grupo de investigación entre los años 1995 y 1998 (más o menos). La integración de los tres modelos fue exitosa al convertir los modelos en reglas (típicas de los sistemas expertos) y unificar el motor de inferencia para el tratamiento de las mismas. Esa tecnología que en el fondo es sencilla, permite integrar problemas aparentemente dispares. Sin embargo y a pesar de que dichos modelos eran novedosos para ser automatizados, ya por aquella época había algunos otros sistemas de ayuda a la toma de decisiones bajo negociación.

Pero quizás el sistema que más satisfacción intelectual nos dio fue el llamado sistema de clasificación y distribución de documentos.  Este sistema pretendía que cualquier correo electrónico o fax en formato electrónico que se enviase a una organización genérica (por ejemplo zzz@zzz.com) llegase al destinatario correcto, es decir  a una persona encargada del tema que se tratase. Ya entonces se sabía de la enorme pérdida de tiempo que se originaba en muchos asuntos de grandes organizaciones cuando una comunicación que venía desde fuera era enviada por personas a personas inadecuadas y entonces o se perdía la comunicación misma o en el mejor de los casos se perdía mucho tiempo.

Así que se ideó un sistema que tenía que ser un registro automático de cada comunicación entrante. Una vez registrada había que clasificarla es decir atribuirle una clase a la que pertenecía y tras eso un segundo filtro que determinaba exactamente a la persona a la que debía ir. Este sistema fue complejo, hubo que idearlo completamente pues no había nada parecido. Una de las ideas que aporté fue la de lo que entonces llamamos "contextos genéricos" que eran una especie de clases que determinaban con mucha precisión  a cuál de ellas pertenecía un documento entrante. Estos contextos genéricos se basaban en una idea sencilla de entender y que se basaba en el examen del vocabulario de dichos documentos y hasta qué punto coincidía con los patrones (también formados por vocabulario) definidos a partir de los distintos departamentos o personas de dicha organización. La idea es tan sencilla como darse cuenta que si decimos dos listas de dos términos (cangrejo, felicidad) o (cangrejo, comida) es darnos cuenta que la segunda tiene más sentido que la primera (una cangrejo puede ser comida o puede comer, pero salvo en una historieta, el concepto de felicidad tiene poco que ver con un cangrejo).

Los contextos genéricos eran pues grupos de palabras que tenían relación entre si dentro de un dominio determinado. Estas palabras  había que determinarlas manualmente o casi. Nuestra capacidad de cómputo en aquel momento era limitada (los ordenadores potentes de entonces eran menos que un teléfono móvil actual). El concepto sigue vivo pero hoy podemos utilizar nuestras propias herramientas (la primera que comercializamos es un potentísimo extractor terminológico) y la idea es que lo hemos necesitado a lo largo de los años en muchas ocasiones. De hecho hemos hecho a lo largo de los últimos 15 años no menos de otros 15 extractores terminológicos lo cual nos ha permitido idearlos, optimizarlos y sobretodo hacerlos manejables por casi cualquiera. Ya llegaremos a él y se lo contare más despacio. En aquella ocasión quizás fue la primera vez que tuvimos esa necesidad de extraer términos de textos de referencia.

El proyecto ORCHESTRA llego a terminarse y era potente y sofisticado. El dia de la entrega final al representante de la UE todos estábamos nerviosos, alguien iba a enviar un fax desde Oporto a Lisboa a una organización y ese fax tenía que llegar exactamente a una persona. El fax se envió y llegó a quien tenía que llegar. En conjunto fue un éxito y como ingenieros que éramos todos nos invadió una gran satisfacción. Pero ahí aprendimos algo duro de tragar. El representante de la UE nos comentó sus impresiones y decía estar satisfechísimo con el trabajo hecho dijo la frase fatídica "este sistema nunca verá la luz". La cara de estupefacción que pusimos todos es difícil de describir. Y siguió explicándonos el "por qué" que estábamos esperando "el sistema es tan sofisticado y tan potente que las organizaciones no están preparadas para trabajar con un sistema así, y cuando lo estén, el sistema estará anticuado".

Hay que decir, que hoy más de 15 años después efectivamente el sistema no se ha utilizado más que en la empresa industrial que participó como usuaria en aquel proyecto. Aún las empresas están lejanas a tener un sistema así, y en ocasiones las cosas han cambiado tanto (en aquella época un tfno. móvil pesaba casi un kilogramo). Que se ganó entonces? Bueno, los equipos que participamos  ya sabíamos hacer esos tipos de sistemas. Se gano el "know-how". Eso sí.

Y como ven, el origen de estas cosas que les voy contando que es el "inventario" de aplicaciones y de conocimientos de a lo largo de los años, se va configurando. Llevamos de momento el analizador morfosintáctico que permite acceder en lenguaje natural a una base de datos y el sistema de clasificación y distribución de documentos. De ahí si que sacamos los conocimientos para tratar con contenidos documentales. Ahí quiero hacer una precisión, Tratar con contenidos no quiere decir "espiar" contenidos. Los documentos se pueden clasificar con mayor o menor precisión, pero leer y entender lo que dice un documento está lejos aún…una de las ramas de la Ingeniería Lingüística es el llamado "natural language understanding" es decir, comprensión del lenguaje, pero entre nosotros hay que matizar que comprensión sería eso que hemos dicho antes, saber de qué va, pero no exactamente lo que dice. No sé si me explico.

El inventario como ven se va formando con cosas que tenemos y con cosas que sabemos. Seguimos otro día con más cosas. Aun estamos en la década de los 90…[
Jesús Cardeñosa
Comentarios Martes, 9 de Julio 2013


Facebook Twitter LinkedIn Google Meneame Viadeo Pinterest

Bitácora

Tras las experiencias en proyectos internacionales y grandes consorcios en proyectos de I+D llega el momento de comenzar a participar en desarrollos de productos avanzados pero ya comerciales.


La experiencia europea fue pues de aprendizaje de nuestro grupo de trabajo. Aprendizaje a trabajar en entornos internacionales, a trabajar con mucha más organización y mucha mayor productividad, y aprendizaje en profundidad de tecnologías.  Terminados los proyectos VALID y ACKNOWLEDGE nos pusimos a preparar ya desde 1992 nuevas propuestas de la Comisión europea. Nos fueron aprobadas dos, casi a la vez (1994). Una era para con fondos europeos comenzar a formar una industria en nuestro propio país y otra era un macroproyecto en el área de BPR (Business Process Re-engineering). El proyecto para desarrollar en nuestro pais se llamaba GNBD (si quieren ver más información del mismo pueden ir a las páginas de nuestro grupo de investigación que tienen en alguna parte de esta página).

Básicamente era desarrollar un interfaz de usuarioen lenguaje natural para consultas de una Base de Datos de una compañía de segurosl. La verdad es que el resultado fue muy bueno y aunque uno lo hubiese diseñado y desarrollado en buena parte, verlo funcionar me parecía espectacular pues respondía a cualquier consulta en lenguaje natural como por ejemplo "dime todos los empleados que tengan un hijo y que hubiesen tomado vacaciones entre el 15 de mayo y el 15 de septiembre de 1990". Esto ya lo hacíamos hace más de 20 años. La empresa que participó junto con nosotros en este desarrollo fue Software AG cuyo equipo del departamento de Sistemas Expertos era ya conocido por mí y a su cargo un gran profesional, José Antonio Frias. Al término del proyecto se llevó parte de mi equipo a su empresa. Ellos desarrollaron la base de datos y nosotros el interfaz en lenguaje natural. Este interfaz básicamente se hizo estudiando el contexto de trabajo, el de las preguntas esperables pues los usuarios eran los distintos departamentos de dicha compañía de seguros, y acorde a ello hicimos un analizador morfológico y un analizador sintáctico (parser) de lengua española adaptado a dicho contexto.

Este tipo de aplicación sería pues la primera vez que nuestro grupo desarrollaba algo comercial. Este tipo de aplicaciones a medida de un cliente/usuario y de cierta dificultad han sido constantes a lo largo de los años. Los problemas no resueltos por aplicaciones en mercado eran resueltos haciendo sistemas a medida de una necesidad. La experiencia y el grado de conocimiento que íbamos adquiriendo era importante.
Les cuento el próximo día, el proyecto internacional que por su volumen y complejidad merecen una capítulo aparte. Se denominó ORCHESTRA y se desarrolló a lo largo de 3 años dentro del programa ESPRIT III.
Jesús Cardeñosa
Comentarios Sábado, 29 de Junio 2013


Facebook Twitter LinkedIn Google Meneame Viadeo Pinterest

Bitácora

19votos

A la vez que nuestra participación en el proyecto PIVOT, nuestro grupo de investigación comenzó la andadura en los programas de la entonces Comunidad Económica Europea (CEE hoy UE)


Desde 1989 al 1991, los tres años, participamos en dos proyectos europeos del programa de tecnologías de la información (las llamadas hoy TICs) que tenían de nombre genérico ESPRIT II. España se encontraba recién entrada en la CEE (1986) y todo eran apoyos para que instituciones españolas participasen en estas convocatorias. Aún recuerdo la primera vez que fui a Bruselas en 1988 (el viaje lo pagó la universidad con gran agilidad. Hoy no hay apenas dinero para esas cosas pero el infierno burocrático es muchisimo mayor, hasta el punto que hay investigadores que pagan esas cosas de sus contratos y proyectos por no entrar en el laberinto burocrático)  y en una enorme sala rodeada de tablones de corcho, y abarrotada de gente, uno iba allí con una hoja impresa de datos del grupo de trabajo, áreas en las que podíamos trabajar  y datos de contacto y la ponía con una chincheta en los tablones de corcho. La cuestión es que surtió efecto, la gente miraba recorriendo la sala entera y tomaba nota de aquellos que pudieran interesarle. En aquella época había fax pero no Internet. Y ni que decir tiene que apenas había ni correo electrónico. En la universidad teníamos, pero absolutamente prehistórico en relación a hoy, pero lo había (mejor dicho lo tuvimos que contratar,a la comisión Europea, no habia antes de eso).

También recuerdo la conferencia general, una sala gigantesca donde debía haber no menos de mil personas representando a otras tantas instituciones de Europa donde el conferenciante principal nos dijo (siempre en inglés) que los objetivos tecnológicos eran importantes pero que en esos momentos de la CEE era casi más importante que los europeos aprendieran por medio de estos programas, a trabajar juntos. Creo que tal filosofía vista veintitantos años más tarde, ha hecho que Europa sí sepa trabajar junta.

De aquella convocatoria conseguimos participar en dos proyectos. Uno llamado VALID que trataba de definir métodos y sistemas para validar sistemas basados en el conocimiento, que por su dificultad intrínseca merecían métodos específicos. El socio principal era una empresa francesa COGNITECH que luego fue absorbida por otra más grande. De aquella experiencia aprendí a trabajar en un entorno internacional con medios iniciales casi prehistóricos. Aquí nadie sabía nada de eso. La manera de trabajar y la paciencia que tuvieron con nosotros el resto del consorcio, fue toda una enseñanza de cómo estar y como hacer. Incluso cabe decir que de la desconfianza inicial pasaron a confiar incrementando nuestra participación. El secreto solo es uno, trabajar con seriedad y cumpliendo plazos y objetivos. Eso fue muy importante para el resto de los años. Una manera de trabajar que nos distinguió incluso de muchos otros grupos. Mi aprendizaje de aquel proyecto permitió definir una asignatura de Validación que ha estado viva y vigente hasta este mismo año. De los pocos sitios donde se imparte en España.

Tuvimos también la suerte de participar en otro proyecto europeo más. El denominado "Acknowledge". Este fue un proyecto con un consorcio muy grande de media Europa tanto de universidades como empresas que debía definir un entorno de adquisición del conocimiento. Se hicieron herramientas (así llamamos a las aplicaciones informáticas) pero lo principal fue la enorme recopilación de métodos de aprendizaje automático.  Esto merece un pequeño comentario, porque siendo métodos originales y que demostraron su validez y eficacia, las modas han hecho que el aprendizaje automático hoy en día se asocie al uso de métodos basados en análisis de datos muy de tipo estadístico. Es decir, en ocasiones en el mundo de la ciencia, no es que se evolucione sino que hay corrientes y modas que "barren" unos métodos", "descubren" otros y se eliminan cosas válidas. Y desde luego en muchas ocasiones los nuevos métodos son lavados de cara de los antigüos, cambios de nombre etc, por eso los trabajos de tesis doctorales que tienen buenos "estados del arte" o recopilación histórica de las cosas que había antes de un tema determinado tienen una gran validez.

Así pues, de aquellos dos proyectos principalmente, aprendimos a trabajar en entornos internacionales, aprendimos a estudiar lo que hay en todo el mundo sobre un tema y aprendimos experimentar y desarrollar modelos y métodos nuevos. Esta base fue esencial para hacer un grupo de trabajo fuerte para los años posteriores.

No quiero dejar de mencionar qué más conseguimos por la participación en aquellos proyectos. En el proyecto VALID antes mencionado, había un profesor de la universidad de Roskilde (Henrik Larsen) que ademas de trabajar juntos en el proyecto hicimos una buena amistad. Le voy a ver esta misma semana aquí en Madrid. es decir, que además de los objetivos se sacan contactos internacionales, y amistades que como os cuento, duran muchos años. Y nos vamos a ver para ver si podemos hacer algo juntos.

Jesús Cardeñosa
Comentarios Viernes, 14 de Junio 2013


Facebook Twitter LinkedIn Google Meneame Viadeo Pinterest


Editado por
Jesús Cardeñosa
Eduardo Martínez de la Fe
El Profesor Jesús Cardeñosa es Ingeniero Aeronáutico por la Universidad Politécnica de Madrid, así como Master de Ingeniería del Conocimiento. Desde 1988 desarrolla su trabajo en el Departamento de Inteligencia Artificial de la Facultad de Informática de la Universidad Politécnica de Madrid, de la que en la actualidad es profesor titular y Director del Grupo de Validación y Aplicaciones Industriales. Desde1996 representa a la lengua española en el proyecto de la Universidad de las Naciones Unidas UNL (Universal Networking Language) para crear sistemas de soporte al multilingüismo en Internet. Miembro del Consejo Editorial de Tendencias21 desde sus orígenes, Jesús Cardeñosa forma en la actualidad un consorcio internacional con varios países de Latinoamérica para generar textos escolares en lenguas indígenas. Aparte de diversos proyectos nacionales e internacionales, su dedicación actual es impulsar la catedra UNESCO para utilizar tecnologias avanzadas en la generación de contenidos multilingües destinados a la educacion de comunidades indigenas.




Archivo


Comparta nuestros titulares
RSS ATOM RSS comment PODCAST Mobile