Se aprueba el Acta de Inteligencia Artificial de la Unión Europea

«The Artificial Intelligence Act» European Union, 2023

Acceder

Texto completo

Los legisladores de la UE aprueban una ley histórica sobre la IA. La Ley de Inteligencia Artificial establece normas de protección de la intimidad más estrictas, leyes de transparencia más rigurosas y multas más elevadas en caso de falta de cooperación.

«The Artificial Intelligence Act» (El Acta de Inteligencia Artificial), aprobada en junio de 2023 tiene como objetivo es establecer un marco regulatorio que promueva la confianza y la seguridad en el desarrollo y uso de la IA en la UE. El Acta busca lograr un equilibrio entre la promoción de la innovación y el desarrollo de la inteligencia artificial (IA) y la protección de los derechos fundamentales, la seguridad y la transparencia. Esta legislación aborda diversos aspectos de la IA y propone regulaciones específicas para distintos tipos de sistemas de alto riesgo.

Entre los sistemas de IA considerados de alto riesgo se encuentran aquellos utilizados en la vigilancia masiva, en infraestructuras críticas, aquellos que afectan la seguridad y la salud, así como los empleados en la educación y el empleo, entre otros ámbitos. El objetivo es establecer requisitos y medidas específicas para estos sistemas, garantizando su seguridad, precisión y responsabilidad.

El Acta también pone énfasis en la transparencia, exigiendo que los proveedores de sistemas de IA brinden información clara sobre cómo funcionan y los datos utilizados. Además, se propone la implementación de evaluaciones de riesgos para los sistemas de IA de alto riesgo, así como la creación de una estructura de gobernanza y supervisión a nivel de la UE, en colaboración con las autoridades nacionales.

Algunos de los puntos clave del Acta incluyen:

  1. Requisitos de transparencia: Los proveedores de sistemas de IA deben proporcionar información clara sobre cómo funcionan sus sistemas y los datos utilizados, para que los usuarios puedan comprender y evaluar su funcionamiento.
  2. Evaluación de riesgos: Los sistemas de IA de alto riesgo deben pasar por una evaluación de riesgos y cumplir con requisitos específicos antes de poder ser utilizados. Esto incluye la implementación de medidas técnicas y organizativas para garantizar su seguridad y precisión.
  3. Supervisión y gobernanza: Se propone la creación de un sistema de gobernanza y supervisión para la IA a nivel de la UE, con la participación de las autoridades nacionales competentes. También se establecerá una red de coordinación para facilitar la cooperación entre los Estados miembros.
  4. Sanciones: El acto establece posibles sanciones por incumplimiento de las regulaciones, incluyendo multas significativas.

 

 

 

la Ley de IA de la UE obligaría a las empresas que ofrecen sistemas de IA, incluido ChatGPT, a dar explicaciones claras sobre el funcionamiento de la tecnología, revelar cualquier sesgo o limitación y garantizar la privacidad y la protección de datos de los usuarios. Subraya la importancia de la transparencia en los sistemas de IA para generar confianza y permitir a los usuarios entender cómo se toman las decisiones.

Además, el Acta propone un marco de supervisión para garantizar el cumplimiento de la normativa, que podría implicar auditorías de terceros y la creación de un Consejo Europeo de Inteligencia Artificial.

En conjunto, la Ley de Inteligencia Artificial de la UE pretende equilibrar el fomento de la innovación en este campo con la protección de los derechos fundamentales y el tratamiento de los riesgos potenciales asociados a las tecnologías de IA. Su objetivo es establecer normativas que mejoren la transparencia, la responsabilidad y la privacidad, y el ChatGPT y otros sistemas de IA entran en su ámbito de aplicación.

FUENTE:JULIO ALONSO ARÉVALO

Follow us on Social Media