La UE sigue impulsando la aplicación gradual de la Ley de la IA y define qué sistemas y aplicaciones están vetadas por esta regulación.
La Ley de IA de la Unión Europea entró en vigor en agosto de 2024, y la Comisión Europea publicó hace una semana un comunicado en el que se revelaban los usos y prácticas prohibidas de IA.
Dichas «prácticas de IA prohibidas” están detalladas en el propio texto de la Ley de IA. En concreto, en su artículo 5. El objetivo es tratar de cubrir una serie de casos en los que la IA puede intentar interactuar con las personas, tanto a través de aplicaciones para consumidores como a través de entornos físicos.
La regulación europea definió cuatro niveles de riesgo para los sistemas de IA que van desde el riesgo mínimo (filtros de spam) al riesgo inaceptable, considerados como sistemas como una amenaza para la seguridad. Entre las actividades inaceptables están las siguientes:
- Puntuación social basada en el comportamiento de las personas: Crear perfiles de riesgo mediante el monitoreo de acciones individuales.
- Manipulación subliminal o engañosa: Sistemas de IA capaces de influir en las decisiones de los usuarios sin su consentimiento claro.
- Explotación de vulnerabilidades: IA que aprovecha condiciones como edad, discapacidad o nivel socioeconómico.
- Predicción de crímenes basados en la apariencia: Intentos de predecir actividades delictivas utilizando características físicas.
- Inferencia de características personales: Uso de la biometría para determinar aspectos como orientación sexual.
- Recolecta de datos biométricos en sitios públicos: Recopilación en tiempo real para seguridad policial sin una justificación clara.
- Registro e inferencia de emociones: Aplicaciones en entornos laborales o académicos.
Las empresas que violen esa normativa se enfrentarán a multas de hasta 35 millones de euros o de hasta el 7% de sus ingresos anuales el año fiscal anterior, la cifra que sea mayor. Y esas multas afectan a cualquier empresa, sin importar dónde tenga instalada su sede.
El pasado año 100 empresas firmaron el Pacto de IA de la Unión Europea, una iniciativa voluntaria para impulsar la aplicación de los principios de la Ley de IA. Entre los firmantes estaban gigantes como Amazon, Google y OpenAI, y todos se comprometieron a identificar sistemas de IA potencialmente calificados como de alto riesgo.
Hay no obstante algunas excepciones a esos usos prohibidos de la IA. Así, por ejemplo, la Ley de la IA permite que las agencias de seguridad puedan usar ciertos sistemas de recolección de datos biométricos, como nuestra cara, si esos sistemas ayudan a realizar «búsquedas dirigidas» para por ejemplo víctimas de secuestros o a evitar amenazas inminentes a las personas.
Los países de la Unión Europea tienen hasta el 2 de agosto para designar qué autoridades vigilarán este mercado y garantizarán el cumplimiento de las reglas de la ley de IA. La pregunta, es el impacto que esto tendrá en la disponibilidad de funciones de IA en la Unión Europea.
Aunque se prevé que el impacto sea mínimo en los sistemas de alto riesgo, el marco regulatorio completo, que también incluye la Ley de Mercados Digitales (DMA), podría limitar el acceso a los últimos avances en IA dentro de la Unión Europea. Este escenario plantea dudas sobre la competitividad de Europa en el sector tecnológico a nivel global.
Fuente: Xataka.com