Un grupo de expertos independientes encargado de asesorar a la Comisión Europea para informar su respuesta reguladora a la inteligencia artificial, para respaldar el objetivo declarado de los legisladores de la UE de garantizar que los desarrollos de IA estén “centrados en el ser humano”, ha publicado su política y recomendaciones de inversión.
Esto sigue las pautas éticas anteriores para la “IA confiable”, publicadas por el Grupo de expertos de alto nivel (HLEG) para la IA en abril, cuando la Comisión también pidió a los participantes que probaran el borrador de las reglas.
Las recomendaciones de políticas completas de AI HLEG comprenden un documento de 50 páginas muy detallado, que se puede descargar de esta página web. El grupo, que se creó en junio de 2018, está compuesto por una combinación de expertos en inteligencia artificial de la industria, representantes de la sociedad civil, asesores políticos y expertos en políticas, académicos y expertos legales.
El documento incluye advertencias sobre el uso de la inteligencia artificial para la vigilancia masiva y la puntuación de los ciudadanos de la UE, como el sistema de crédito social de China, y el grupo pide una prohibición total de “Puntuación de individuos a escala masiva habilitada por IA ”. También insta a los gobiernos a comprometerse a no realizar una vigilancia generalizada de las poblaciones con fines de seguridad nacional. (Entonces, tal vez sea mejor que el Reino Unido haya votado a favor de abandonar la UE, dados los oscilantes poderes de vigilancia estatal que aprobó como ley a fines de 2016).
“Si bien puede haber una fuerte tentación para los gobiernos de ‘asegurar la sociedad’ mediante la construcción de un sistema de vigilancia generalizado basado en sistemas de inteligencia artificial, esto sería extremadamente peligroso si se llevara a niveles extremos”, escribe el HLEG. “Los gobiernos deben comprometerse a no participar en la vigilancia masiva de personas y a implementar y adquirir solo sistemas de inteligencia artificial confiables, diseñados para ser respetuosos de la ley y los derechos fundamentales, alineados con principios éticos y socio-técnicamente sólidos”.
El grupo también pide que se “contrarreste” la vigilancia comercial de individuos y sociedades, sugiriendo que la respuesta de la UE a la potencia y el potencial de uso indebido de las tecnologías de IA debería incluir garantizar que el seguimiento de personas en línea sea “estrictamente en línea con derechos fundamentales como la privacidad ”, incluso (especifica el grupo) cuando se trata de servicios ‘gratuitos’ (aunque con una pequeña salvedad sobre la necesidad de considerar cómo se ven afectados los modelos de negocio).
La semana pasada, el organismo de control de protección de datos del Reino Unido lanzó un disparo aún más específico a través de los arcos de la industria de la publicidad conductual en línea, advirtiendo que el procesamiento a gran escala de adtech de los datos personales de los usuarios de la web para los anuncios de orientación no cumple con los estándares de privacidad de la UE. Se le dijo a la industria que sus prácticas de infracción de derechos deben cambiar, incluso si la Oficina del Comisionado de Información no está dispuesta a derribar el martillo todavía. Pero la advertencia de reforma fue clara.
Mientras los legisladores de la UE trabajan en la creación de un marco regulatorio que respete los derechos para la IA, buscando dirigir los próximos diez años + de desarrollos tecnológicos de vanguardia en la región, la atención y el escrutinio más amplios que atraerán las prácticas digitales y los modelos de negocios parecen estar listos para impulsar una limpieza de las prácticas digitales problemáticas que han podido proliferar bajo ninguna regulación táctil o muy ligera, antes de ahora.
El HLEG también pide apoyo para desarrollar mecanismos para la protección de datos personales y para que las personas “controlen y se empoderen con sus datos”, lo que, según ellos, abordaría “algunos aspectos de los requisitos de una IA confiable”.
“Se deben desarrollar herramientas para proporcionar una implementación tecnológica del GDPR y desarrollar la preservación de la privacidad / privacidad mediante el diseño de métodos técnicos para explicar los criterios, la causalidad en el procesamiento de datos personales de los sistemas de inteligencia artificial (como el aprendizaje automático federado)”, escriben.
“Apoyar el desarrollo tecnológico de técnicas de anonimización y encriptación y desarrollar estándares para el intercambio seguro de datos basados en el control de datos personales. Promover la educación del público en general en la gestión de datos personales, incluida la concienciación y el empoderamiento de las personas en los procesos de toma de decisiones basados en datos personales de IA. Crear soluciones tecnológicas para proporcionar a las personas información y control sobre cómo se utilizan sus datos, por ejemplo, para la investigación, la gestión del consentimiento y la transparencia a través de las fronteras europeas, así como cualquier mejora y resultado que se derive de esto, y desarrollar estándares para la seguridad. intercambio de datos basado en el control de datos personales “.
Otras sugerencias de política entre las muchas incluidas en el informe del HLEG son que los sistemas de inteligencia artificial que interactúan con los humanos deben incluir una autoidentificación obligatoria. Lo que significaría que no hay robots engañosos que imiten el habla humana de Google Duplex. En tal caso, el bot tendría que presentarse al principio, dando así a la persona que llama la oportunidad de desconectarse.
El HLEG también recomienda establecer un “Estrategia europea para una IA mejor y más segura para los niños ”. Preocupación y náuseas por desenfrenadoLa dataficación de los niños, incluso mediante el seguimiento comercial de su uso de los servicios en línea, se ha planteado en varios Estados miembros de la UE.
“La integridad y la capacidad de acción de las generaciones futuras deben garantizarse proporcionando a los niños de Europa una infancia en la que puedan crecer y aprender sin ser afectados por el seguimiento no solicitado, la elaboración de perfiles y la habitualización y manipulación con interés invertido”, escribe el grupo. “Se debe garantizar a los niños un espacio de desarrollo libre y no supervisado y, al pasar a la edad adulta, se les debe proporcionar una ‘tabla rasa’ de cualquier almacenamiento público o privado de datos relacionados con ellos. Del mismo modo, la educación formal de los niños debe estar libre de intereses comerciales y de otro tipo “.
Los Estados miembros y la Comisión también deberían idear formas de “analizar, medir y puntuar continuamente el impacto social de la IA”, sugiere el HLEG, para controlar los impactos positivos y negativos de modo que las políticas puedan adaptarse para tener en cuenta los efectos cambiantes.
“Se puede considerar una variedad de índices para medir y calificar el impacto social de la IA, como los Objetivos de Desarrollo Sostenible de la ONU y los Indicadores del Cuadro de Indicadores Sociales del Pilar Social Europeo. El programa estadístico de la UE de Eurostat, así como otras agencias relevantes de la UE, deberían incluirse en este mecanismo para garantizar que la información generada sea confiable, de calidad alta y verificable, sostenible y disponible continuamente ”, sugiere. “Las soluciones basadas en IA pueden ayudar a monitorear y medir su impacto social”.
El informe también es muy importante para que la Comisión impulse la inversión en IA, y pide en particular más ayuda para que las empresas emergentes y las pymes accedan a financiación y asesoramiento, incluso a través del programa InvestEU.
Otra sugerencia es la creación de un Red europea de incubadoras de empresas de IA para conectar la academia y la industria. “Esto podría combinarse con la creación de Open Innovation Labs en toda la UE, que podrían construirse más sobre la estructura de la red Digital Innovation Hub”, continúa.
También hay llamamientos para fomentar la adopción de la IA por parte del sector público, como por ejemplo: fimpulsar la digitalización mediante la transformación de los datos públicos en un formato digital; Proporcionar educación en alfabetización de datos para agencias gubernamentales; Ccreación de grandes bases de datos públicas no personales anotadas europeas para una “IA de alta calidad”; y financiación y facilitar el desarrollo de herramientas de inteligencia artificial que pueden ayudar a detectar sesgos y prejuicios indebidos en la toma de decisiones gubernamentales.
Otro fragmento del informe cubre recomendaciones para tratar de reforzar la investigación de la IA en Europa, como sfortalecer y crear Centros de Excelencia adicionales que aborden temas de investigación estratégicos y se conviertan en “un multiplicador a nivel europeo para un tema específico de IA”.
Inversión en infraestructuras de IA, como clústeres distribuidos y computación de borde, gran RAM y redes rápidas, y un también se insta a una red de instalaciones de prueba y cajas de arena; junto con sApoyo a un repositorio de datos en toda la UE “a través de una anotación común y estandarización” – para trabajar contra el almacenamiento en silos de datos, así como espacios de datos confiables para sectores específicos como la salud, automotriz y agroalimentaria.
El HLEG para acelerar la adopción de la IA ha generado algunas críticas, y la gerente de políticas europeas del grupo de derechos digitales Access Now, Fanny Hidvegi, escribió que: ‘Lo que necesitamos ahora no es una mayor adopción de la IA en todos los sectores de Europa, sino más bien claridad sobre salvaguardias, líneas rojas y mecanismos de aplicación para garantizar que los sistemas de toma de decisiones automatizados y la IA más desarrollados y desplegados en Europa respeten los derechos humanos “.
Otras ideas del informe del HLEG incluyen el desarrollo e implementación de un plan de estudios europeo para la IA; y MMonitorear y restringir el desarrollo de armas letales automatizadas, incluidas tecnologías como las herramientas de ciberataque que no son “armas reales” pero que el grupo señala que “pueden tener consecuencias letales si se despliegan.
El HLEG sugiere además que los legisladores de la UE se abstengan de otorgar personalidad jurídica a los sistemas de inteligencia artificial o robots, escribiendo: “Creemos que esto es fundamentalmente inconsistente con el principio de agencia humana, responsabilidad y responsabilidad, y representa un riesgo moral significativo”.
El informe se puede descargar completo aquí.