“La Unión Europea aborda los riesgos inaceptables de la Inteligencia Artificial: protección ante manipulación, discriminación y vulnerabilidades”
En busca de salvaguardar la integridad, la Unión Europea reconoce los riesgos inaceptables asociados con el uso de la Inteligencia Artificial. Entre ellos se encuentran la manipulación mediante técnicas algorítmicas, el empleo de reconocimiento facial en tiempo real con fines privados y la explotación de las vulnerabilidades de los individuos, como su apariencia, raza, etnia, religión u opiniones políticas. Óscar Corcho, catedrático en Inteligencia Artificial de la Universidad Politécnica de Madrid, amplía estas preocupaciones.
Además, se plantea la preocupación de que la IA no tenga la capacidad de decidir el acceso a servicios públicos, como la educación de los hijos, más allá de los criterios actualmente utilizados que se consideran objetivos en general. En este sentido, la supervisión de las decisiones tomadas por la Inteligencia Artificial debe recaer únicamente en seres humanos. La gestión adecuada y el establecimiento de límites claros son fundamentales, considerando cuándo y cómo se deben utilizar estas tecnologías.
Para clasificar las decisiones tomadas por la IA, se establecerán tres niveles de riesgo: alto, medio y bajo, en función de su impacto en la vida cotidiana de la población. Óscar señala que si bien esto no generará cambios drásticos, contribuirá a regular aspectos relacionados con la apropiación y privacidad de los datos.
Estas directrices deben ser aprobadas en junio por el Parlamento Europeo. Sin embargo, se enfrentan a dificultades para llegar a un consenso, dado que incluso los expertos que estudian y entrenan la Inteligencia Artificial desconocen cómo se toman algunas decisiones y por qué se obtienen ciertas respuestas. El experto aclara que definir de manera precisa la aplicación de esta nueva regulación será un desafío significativo.