SEGURIDAD Y DEFENSA: Manuel Sánchez Gómez-Merelo




Blog sobre convergencia y tecnología de Tendencias21

Secciones

Recientemente, la Unión Europea se ha convertido en la primera región del mundo en regular de forma integral los usos de la inteligencia artificial (IA), en momentos en los que esta tecnología se ha disparado y no somos capaces de entrever hasta donde llegará su alcance.
Aunque la carrera por la inteligencia artificial es una competición tecnológica, empresarial e industrial, todo apunta a que puede acabar también convirtiéndose en un duelo legislativo.


Así, después de tres días de intensas negociaciones y cuatro años de discusiones, la Eurocámara y los Estados miembros aprobaron el pasado 8 de diciembre un acuerdo sobre el texto de la primera normativa para el desarrollo, comercialización y uso de la inteligencia artificial en los países de la Unión. Las instituciones europeas cierran un acuerdo provisional tras superar sus diferencias en torno a la vigilancia biométrica y la regulación de los modelos funcionales como ChatGPT.
 

Según la Secretaria de Estado española de Digitalización e Inteligencia Artificial, Carme Artigas: “Es un logro histórico y un enorme hito hacia el futuro. Hemos conseguido mantener un equilibrio extremadamente delicado: impulsar la innovación y la adopción de la inteligencia artificial en toda Europa respetando plenamente los derechos fundamentales de nuestros ciudadanos”.
 

Según destaca Bruselas, esta ley “pretende garantizar que los sistemas de IA comercializados y utilizados en la UE sean seguros y respeten los derechos fundamentales y los valores de la UE”, siempre teniendo en cuenta que busca a su vez “estimular la inversión y la innovación en IA en Europa”.
 

Está previsto que el Parlamento Europeo vote sobre la ley a principios de 2024. Tras su publicación definitiva se abrirá un plazo de dos años para su aplicación plena, aunque se podrá adelantar la entrada en vigor de algunos puntos, asegura el Consejo Europeo. La ley en su totalidad no entrará en vigor hasta al menos 2025 o 2026.
 

Inteligencia artificial, ética y derechos
 

Los objetivos fundamentales de la Ley “AI Act”, como se la conoce en inglés, además de ser una legislación “vanguardista y responsable que impone estándares globales”, trata de establecer un marco que fomente el desarrollo de una inteligencia artificial ética y confiable, colocando a las personas en el epicentro y asegurando que la tecnología sea empleada en beneficio de la sociedad.
 

La regulación aborda cuestiones éticas cruciales, como la privacidad, la seguridad y la transparencia en las aplicaciones inteligentes.
 

El debate crucial se centró en las aplicaciones de IA que serán prohibidas debido a su amenaza para la democracia  y los derechos individuales. Esto abarca sistemas de categorización y restricciones de la vigilancia biométrica basados en características sensibles, como raza, religión, creencias políticas u orientación sexual.
 

El Parlamento Europeo ha conseguido incluir restricciones importantes a las aplicaciones de esta impredecible tecnología, aunque los Estados miembros también han logrado preservar su derecho a usarla en asuntos de seguridad nacional y persecución del crimen.
 

Ley de Inteligencia Artificial -IA-Act- en Europa. Ética, seguridad y derechos, por Manuel Sánchez Gómez-Merelo
 

Finalmente, la ley prohibirá los sistemas que supongan “riesgos inaceptables” para los derechos fundamentales de los ciudadanos, pero los Estados podrán utilizar sistemas de vigilancia biométrica en espacios públicos para identificar a víctimas de secuestros o tráfico sexual y en caso de amenaza terrorista.
 

La Unión Europea, la Ley IA-Act y la seguridad
 

Todas las partes han intervenido en la nueva normativa de la UE: los gobiernos que quieren más libertad y la Eurocámara que quiere más protecciones. Así, manteniendo su enfoque basado en el riesgo, la regulación impone restricciones significativas a determinados sistemas, exigiendo salvaguardias de los derechos humanos antes de su entrada al mercado. Esto incluye la obligación de reportar evaluaciones de modelos, realizar pruebas contradictorias, garantizar la ciberseguridad y reportar sobre la eficiencia energética, entre otras medidas.
 

Igualmente, se veta todo sistema que limite el libre albedrío de las personas o que sirva para controlar el comportamiento de trabajadores o ciudadanos, como la que sirve para el reconocimiento de emociones en el trabajo a través del comportamiento no verbal.
 

El texto final recoge, aseguran los eurodiputados, sus principales líneas rojas, al confirmar que quedarán prohibidos varios sistemas de vigilancia biométrica que consideraban inaceptables.
 

La utilización de biometría en espacios públicos estará sujeta a restricciones y requerirá autorización judicial previa. La recopilación indiscriminada de imágenes faciales de Internet o cámaras de vigilancia para bases de datos de reconocimiento facial también será prohibida.
 

Ley de Inteligencia Artificial -IA-Act- en Europa. Ética, seguridad y derechos, por Manuel Sánchez Gómez-Merelo
 

Por otro lado, aunque se permitirán los sistemas de vigilancia biométrica en tiempo real en espacios públicos, solo podrán ser empleados por las fuerzas del orden y estarán muy limitados y rodeados de estrictas salvaguardias: se requerirá una autorización judicial y la lista de motivos que lo autoricen será muy restrictiva.
 

En este sentido, España anunció hace meses la elaboración de una Guía de Buenas Prácticas para ayudar a las empresas a cumplir con la regulación. Este paso es esencial para mantener la aspiración de ser un referente europeo en IA ética.
 

Además, este es un momento crucial en la definición del futuro de la AESIA, la primera agencia europea para la supervisión ética de la IA.
 

Sistema de clasificación basado en el riesgo
 

La nueva Ley IA-Act de la UE mantiene su enfoque basado en el riesgo, tanto para la seguridad como para garantizar los derechos fundamentales de los ciudadanos. En el punto más elevado de la pirámide se encuentra un número muy limitado de aplicaciones de IA que se prohibirán de forma terminante.
 

Según el potencial de riesgo de la inteligencia artificial y teniendo en cuenta para qué fines se utiliza y cómo esto podría afectar a la población, la Comisión Europea ha propuesto la creación de un sistema de riesgos basado en cuatro niveles:
 

  • Riesgo mínimo. Sistemas de inteligencia artificial que cumplen los requisitos legales vigentes siempre y cuando no necesiten obligaciones legales adicionales. La mayoría de los modelos de inteligencia artificial entran en esta categoría.
  • Alto Riesgo. Se trata de sistemas de inteligencia artificial que puede afectar negativamente a la seguridad de las personas o la violación de los Derechos Humanos Fundamentales. Según señala la normativa se «considerarán de alto riesgo cuando estén sujetos a una evaluación de la conformidad por parte de terceros en virtud de dicha legislación sectorial».
  • Riesgo Inaceptable. En esta categoría, entraría la prohibición de identificación biométrica remota en tiempo real en espacios públicos, el uso de técnicas subliminales, reconocimiento de emociones en el lugar de trabajo, raspado no dirigido de Internet. En conclusión, se consideran riesgos inaceptables aquellas actividades que vayan en contra de la defensa de los derechos humanos de la Unión Europea.
  • Riesgo específico de transparencia. Los fabricantes y proveedores deberán dejar claro a los usuarios cuando estos estén interactuando con una inteligencia artificial. Es decir, no se permite hacer pasar información creada por una inteligencia artificial como si se tratase de una persona o una fuente de información real.
     

Aunque la ley de inteligencia artificial de la Unión Europea destaca estas cuatro categorías de riesgos, también reconoce y tienen en cuenta la existencia de los riesgos sistémicos, en los que se incluyen los grandes modelos de la IA generativa.
 

Claves para entender la ley de inteligencia artificial IA-Act
 

La inteligencia artificial se ha convertido en una herramienta diaria para algunos usuarios a través de la plataforma ChatGPT y Bard y este marco regulatorio, sin precedentes a nivel mundial, no solo tiene como propósito impulsar la tecnología que está transformando de manera sustancial nuestra sociedad y economía, sino que también se nutre de la cultura humanística y de seguridad europea, en la que el respeto a los derechos humanos ocupa un lugar destacado.
 

El inicial objetivo se materializó con la publicación de la Estrategia Europea sobre la Inteligencia Artificial en 2018, un documento que ha marcado la hoja de ruta en el tema.
 

Posteriormente, en 2021, la Comisión Europea propuso un innovador marco regulatorio en materia de inteligencia artificial con el fin de fomentar su desarrollo y su adopción en todo el mercado único europeo.
 

Ley de Inteligencia Artificial -IA-Act- en Europa. Ética, seguridad y derechos, por Manuel Sánchez Gómez-Merelo
 

Así, entre los principales objetivos del proyecto de ley de inteligencia artificial de la Comisión Europea, propone la creación de un sistema revisado de gobernanza en el que los propios Estados miembros sean los que se encarguen de vigilar el mercado y hacer que se controlen las nuevas normas en materia de inteligencia artificial.
 

El proyecto de ley de la inteligencia artificial limita el uso de la identificación biométrica remota en tiempo real. Es decir, el reconocimiento facial mediante CCTV en espacios públicos, incluso con fines policiales siempre y cuando no se trate de uno de los 16 delitos específicos recogidos en el documento. Estos delitos se centran en el terrorismo, la trata de seres humanos, la explotación sexual infantil, el tráfico ilegal de armamento, el asesinato, las lesiones corporales graves, el tráfico ilegal de órganos o de materiales nucleares o radioactivos, los crímenes de la competencia de la Corte Penal Internacional, la incautación ilícita de aeronaves, la violación, los delitos contra el medio ambiente, el robo organizado o a mano armada y la participación en organizaciones criminales.
 

A modo de conclusiones
 

La Unión Europea va a ser la primera región del mundo que regule la inteligencia artificial (IA-Act) de una manera integral, con seguridad y protegiendo los derechos fundamentales, pero sin frenar su desarrollo. No obstante, el camino no será fácil ni exento de polémica porque habrá retos importantes como: “quién vigilará a los vigilantes” en el uso de sistemas de vigilancia e identificación biométrica. Las fuerzas del orden podrán usarla en espacios públicos previa autorización judicial no retroactiva para prevenir amenazas de terrorismo, tráfico de personas, explotación sexual, asesinato, secuestro, violación, robo a mano armada, participación en organización criminal y delito ambiental.
 

En cualquier caso, este es un paso de gigante en el que la propia IA opina: Un equipo de TVE ha preguntado a Bard, la IA de Google: "¿Qué te parece el acuerdo alcanzado por la Unión Europea sobre inteligencia artificial?", y la respuesta de Bard ha sido: "En general, creo que el acuerdo alcanzado por la Unión Europea sobre inteligencia artificial es un paso positivo en la dirección correcta. Es importante que la IA se desarrolle y utilice de manera responsable y ética, y este acuerdo proporciona un marco para hacerlo".
 

Finalmente, indicar que la nueva Ley Europea de Inteligencia Artificial (IA-Act), no estará en pleno vigor antes de tres años, y no hay previsiones de cómo será esa inteligencia artificial por esas fechas, por lo que el regulador deberá ir caminando con velocidad para tratar de ir al paso de la tecnología y disponer de un mecanismo que le permita evolucionar con rapidez.
 

Europa marca el camino y la seguridad en este campo.


Editado por
MANUEL SANCHEZ GÓMEZ-MERELO
Eduardo Martínez de la Fe
MANUEL SANCHEZ GÓMEZ-MERELO, es consultor internacional de seguridad, arquitecto técnico y periodista. Completa esta formación con diversos cursos de postgrado en las áreas de seguridad pública y privada, defensa comunicaciones.

Dedicado por más de 30 años a la Consultoría e Ingeniería de Seguridad y Defensa por más de 20 países como asesor para asuntos aeroportuarios, puertos, cárceles hospitales, entidades bancarias, museos, transporte ferroviario, servicios de Correos y puertos.

Es socio fundador y presidente para Europa de la Federación Mundial de Seguridad (WSF), Director para Europa de la Secretaría Iberoamericana de Seguridad, Asesor gubernamental en materia de integración operativa de seguridad pública y privada en diversos países latinoamericanos.

Como experiencia académica es profesor de postgrado en ICADE (Universidad Pontificia Comillas de Madrid) desde 1986, codirector de postgrado en la Facultad de Psicología (Universidad Complutense de Madrid) y director del Curso de Seguridad en Infraestructuras Críticas del Instituto General Gutierrez Mellado de la UNED, así como conferenciante habitual y profesor en más de 20 países sobre Seguridad y Defensa.

Su representación institucional es principalmente como Miembro Experto de la Comisión Mixta de Seguridad del Ministerio del Interior, Director para Europa de la Federación Panamericana de Seguridad (FEPASEP), representante “ad honores” de la Federación de Empresas de Seguridad del MERCOSUR (FESESUR), asesor del BID (Banco Interamericano de Desarrollo) para asuntos de Seguridad Ciudadana y Observatorio de Delincuencia en Panamá, socio fundador y de honor del Observatorio de Seguridad Integral en Hospitales (OSICH), socio fundador y vicepresidente de la Asociación para la Protección de Infraestructuras Críticas (APIC)

Autor y director de la BIBLIOTECA DE SEGURIDAD, editorial de Manuales de Proyectos, Organización y Gestión de Seguridad

Actualmente es presidente y director del Grupo de Estudios Técnicos (GET), socio-senior partner de TEMI GROUP Consultoría Internacional y socio-director de CIRCULO de INTELIGENCIA consultora especializada.