El Parlamento Europeo acaba de ratificar la ley de inteligencia artificial eso el Parlamento Europeo aprobó a finales del año pasado con 523 votos a favor, 46 en contra y 49 abstenciones. Aunque se trata de un gran avance en materia legislativa, todavía falta que la Unión Europea lo apruebe definitivamente en las próximas semanas, mientras que la implementación de la ley recién entraría en vigor en 2026.

En resumen, La normativa introduce definiciones legales de “sistemas de IA”, establece una estructura de gobernanza y mecanismos de aplicación y recurso, y describe el proceso legislativo. Además, destaca los debates políticos y académicos en torno a la regulación de la IA, incluidas las preocupaciones sobre los derechos fundamentales, la seguridad, la transparencia y la rendición de cuentas.

El objetivo de la UE es sentar un precedente que sirva de ejemplo a otros países, como Estados Unidos o China, en materia de control.

Estos son los puntos principales del documento aprobado para regular la IA en la UE:

  • Definición de sistemas de IA: establece una definición legal de sistemas de IA, alineada con la definición revisada por la OCDE, excluyendo los sistemas de software simples y tradicionales, y definiendo modelos de inteligencia artificial de propósito general (GPAI) con “capacidades de alto impacto” que podrían representar un riesgo sistémico.
  • Enfoque basado en el riesgo: clasifica los sistemas de IA en varias categorías según el nivel de riesgo que presentan, desde prácticas prohibidas hasta sistemas de alto riesgo y aquellos con riesgos mínimos.
  • Prácticas prohibidas: prohíbe ciertas prácticas de IA consideradas de riesgo inaceptable, incluidos sistemas que manipulan subliminalmente el comportamiento, explotan vulnerabilidades de grupos específicos o realizan identificación biométrica remota en tiempo real en espacios públicos con fines de aplicación de la ley, excepto en circunstancias limitadas (lo ampliamos a continuación).
  • Sistemas de Alto Riesgo: identifica casos de uso en los que los sistemas de IA se consideran de alto riesgo, exigiendo a los proveedores que cumplan con requisitos de evaluación de conformidad antes de ser comercializados en la UE, y establece obligaciones específicas para los sistemas GPAI (Global Partnership on Artificial Intelligence) o Alianza Global sobre Inteligencia Artificial ), incluidos los requisitos de transparencia y la protección de los derechos de autor.
  • Apoyo a la Innovación: fomenta la inversión en sistemas de IA mediante la creación de “áreas regulatorias” para el desarrollo y prueba de sistemas de IA innovadores bajo supervisión regulatoria, y establece medidas para facilitar el desarrollo y la comercialización de sistemas de alto riesgo.
  • Aplicación y estructura institucional: asigna responsabilidades a las autoridades nacionales y de la UE para garantizar la aplicación e implementación de la ley, estableciendo sanciones significativas en caso de incumplimiento.

Además, el documento establece un cronograma de Entrada en Vigor, que fija plazos para la implementación de las diferentes disposiciones, con foco en la eliminación gradual de los sistemas prohibidos y la aplicación de disposiciones relacionadas con GPAI y sistemas de alto riesgo.

Prácticas de IA que quedarán totalmente prohibidas en la UE

El documento señala la prohibición de determinadas prácticas específicas de Inteligencia Artificial, debido a “los riesgos inaceptables que presentan para la seguridad, los medios de vida y los derechos de las personas”. Estas prácticas incluyen:

  • Sistemas de IA que utilizan técnicas de manipulación o engaño subliminales: Estos sistemas están diseñados para distorsionar el comportamiento de personas o grupos de personas de modo que su capacidad para tomar decisiones informadas se vea afectada, causando un daño significativo.
  • Sistemas de IA que explotan vulnerabilidades de grupos específicos: Estos sistemas se aprovechan de las vulnerabilidades por edad, discapacidad o situaciones sociales o económicas, causando daños importantes.
  • Sistemas de IA utilizados por o en nombre de las autoridades públicas con fines de puntuación social: Estos sistemas evalúan o clasifican a individuos o grupos en función de comportamientos sociales o características personales, dando lugar a un trato nocivo o desproporcionado en contextos no relacionados o injustificados en relación con su comportamiento.
  • Identificación biométrica remota “en tiempo real” en espacios públicos con fines policiales: Excepto en un número limitado de casos, como la búsqueda de víctimas de secuestro, explotación sexual o personas desaparecidas, la prevención de amenazas sustanciales e inminentes a la seguridad o la identificación de sospechosos de delitos graves.
  • Sistemas de IA que infieren emociones en lugares de trabajo o instituciones educativas: Salvo por motivos médicos o de seguridad, está prohibido el uso de sistemas de IA para inferir emociones.
  • Sistemas de IA que evalúan el riesgo de que las personas cometan delitos, basándose únicamente en perfiles o rasgos y características de personalidad: Excepto cuando se utilice para sustentar evaluaciones humanas basadas en hechos objetivos y verificables vinculados a la actividad delictiva.
  • Sistemas de inteligencia artificial que crean o amplían bases de datos de reconocimiento facial mediante la recopilación no dirigida de imágenes de Internet o CCTV: Esto incluye prohibir los sistemas que generan bases de datos de reconocimiento facial extrayendo indiscriminadamente datos de Internet o de grabaciones de cámaras de seguridad sin un propósito específico.

Foto de : ChatGPT4

Mantente informado de las noticias más relevantes en nuestro canal Telegrama


Leave a Reply

Your email address will not be published. Required fields are marked *