Europa no quiere un Gran Hermano: límites estrictos a la vigilancia con inteligencia artificial

El despliegue normativo presentado por la Comisión Europa es restrictivo, con prohibición de la vigilancia masiva, salvo contadas excepciones.

En Europa no habrá ningún Gran Hermano. Bruselas plantea una regulación estricta del uso de la inteligencia artificial, convirtiéndose en el primer actor mundial que establece parámetros para utilizar una tecnología tan prometedora en potencial como peligrosa por su capacidad de invadir el ámbito privado.

El despliegue normativo que ayer presentó la Comisión Europa es restrictivo, con prohibición de la vigilancia masiva, salvo contadas excepciones, y de la puntuación social practicada en China. La propuesta busca combinar estas restricciones de algunos usos con el estímulo de otras capacidades de la inteligencia artificial, y supone un intento de la Unión Europa de tomar la delantera en la regulación de esta tecnología tan temida por algunos, por su posible uso como herramienta de control social, como bendecida por otros, que ven en ella un trampolín para el crecimiento económico.

Se prohíbe usar la identificación biométrica a gran escala en espacios públicos, con alguna excepción

“Mi preocupación es que nos abstengamos de usar la inteligencia artificial”, dijo la vicepresidenta de la Comisión Europea, Margrethe Vestager en la presentación de la iniciativa, insistiendo en la necesidad de crear confianza en su uso. Porque la IA llega acompañada de mala reputación. En el cine, el pequeño robot WALL-E no ha hecho olvidar al androide T800 de Terminator, según el ejemplo que expuso el comisario de Mercado Interior, Thierry Bretton, que reconoció que “no me gusta demasiado la denominación de inteligencia artificial”.

En fin, los temores están sobre la mesa y la referencia del uso que hace China de la IA también sigue presente. Frente a todo ello, la regulación que plantea Bruselas delimita en grupos de riesgo los distintos usos de la inteligencia artificial, asociando a cada nivel las medidas correspondientes.

a

Reconocimiento facial y redes 5G

Las disposiciones más radicales son las que prohíben el uso de algunas aplicaciones. Se trata de la identificación biométrica a gran escala en espacios públicos, que queda vetada excepto en un número muy reducido de casos, cuando se trate de cuestiones de seguridad pública referidas a terrorismo, identificación de autores de delitos graves o búsqueda de niños desaparecidos.

También quedan fuera de la ley las aplicaciones que permitan a los gobiernos establecer un social scoring , puntuación social que determina la reputación o la credibilidad de una persona en función de factores como su actividad en las redes sociales.

Habrá controles y sanciones para los incumplidores, con multas que pueden llegar hasta un 6% de la facturación de las empresas o a un total de 30 millones de euros.

Si éstas son las actividades prohibidas, hay otro grupo considerado de alto riesgo que se autoriza, pero con condiciones. Se trata de las aplicaciones de la IA en contratación de personal, infraestructuras esenciales, calificación para obtener un crédito, verificación de documentos y evaluación de la fiabilidad de evidencias presentadas en los tribunales de justicia. En estos usos, se exige calidad de los datos que alimentan el sistema para minimizar los riesgos de error y de discriminación, trazabilidad de los resultados, documentación detallada del funcionamiento del sistema para que las autoridades puedan verificar su cumplimiento e información clara para el usuario.

Más bajo en el nivel de riesgo se sitúa el uso de chatbots , programas de ordenador diseñados para simular conversaciones con usuarios humanos a través de internet. En estos casos, el requisito es de transparencia, que la persona debe ser informada de que está hablando con una máquina y no con otro ser humano.

El objetivo detrás de esta propuesta es incentivar una confianza en la opinión pública que permita un uso adecuado de la inteligencia artificial para que Europa no se quede atrás en la competencia por su desarrollo, más en un momento en que crece la sensación que China lleva la delantera. “Esto ofrece un inmenso potencial en áreas tan diversas como la salud, el transporte, la energía, la agricultura, el turismo o la ciberseguridad”, dijo el comisario Breton.

Gran potencial, pero siempre dependiendo de que se gane la confianza de la sociedad. En definitiva, la inteligencia artificial supone entrenar a las máquinas para que aprendan por sí mismas y lleven a cabo autónomamente trabajos a partir del análisis de gran cantidad de datos. Es cuando las máquinas parece que imiten a los humanos, y el sistema puede ser tan sofisticado que acabe resultando difícil determinar porqué la máquina acabó tomando una resolución. Que un algoritmo tome decisiones importantes levanta desconfianzas y temores de invasión de la privacidad, de discriminación y también de una posible pérdida de puestos de trabajo por su automatización.

Fuente: Jaume Masdeu – La Vanguardia

Comparte esta página: