lunes 6 abril 2026

Nº 7.391 | Fundado en 1999

Director: Eugenio de Quesada

Plataforma del Grupo NEXO

Leer noticias en otro idioma:
Read in a different language:

Nº 8.826 | Fundado en 1999
Director: Eugenio de Quesada
Plataforma del Grupo NEXO

Ley de Inteligencia Artificial de la UE: Cinco claves para poder entenderla

La próxima Ley de Inteligencia Artificial (AI Act) de la UE busca abordar los riesgos y promover el desarrollo seguro de la IA. Se impondrán sanciones económicas a quienes violen el reglamento, incluso a proveedores externos. La regulación afectará a empresas, profesionales y estados en términos de uso de la IA en diversos ámbitos. Una jornada de la UOC profundizará en los cambios y retos futuros de esta ley.

Cinco claves de la nueva Ley de Inteligencia Artificial de la UE

Según Miquel Peguera, catedrático de los Estudios de Derecho y Ciencia Política de la Universitat Oberta de Catalunya (UOC), «la IA ha generado grandes expectativas en términos de crecimiento, eficiencia y mejora de las condiciones de vida, así como impulso a la investigación».

Para el experto, este nuevo reglamento tiene como claves principales las siguientes:

  1. Regula la comercialización y el uso de sistemas de IA en la Unión Europea.
  2. Busca promover la adopción y el desarrollo de la IA y, al mismo tiempo, mitigar los riesgos que un mal uso de esta tecnología puede suponer para la salud, la seguridad y los derechos fundamentales.
  3. Prohíbe determinadas prácticas que se consideran de riesgo inaceptable para los ciudadanos y para el conjunto de la sociedad. Por ejemplo, crear bases de datos de reconocimiento facial a partir de la extracción indiscriminada de imágenes de internet, evaluar o clasificar a las personas a lo largo del tiempo por su comportamiento social o sus características personales, o bien explotar las vulnerabilidades de una persona o grupo con la intención de causar daño.
  4. Centra la regulación en los sistemas de IA que considera de alto riesgo. Por ejemplo, en relación con el acceso a servicios esenciales (públicos o privados) o con la categorización biométrica de las personas, entre otros supuestos.
  5. Exige transparencia con respecto a los contenidos creados o manipulados con herramientas de IA o a los sistemas de reconocimiento de emociones.

Noticias relacionadas

Suscríbase gratis a la newsletter diaria:
[newsletter_form]