Dicen que el futuro está en manos de la Inteligencia Artificial, la IA. Y tal y como está evolucionando no es difícil de imaginar un mundo diferente controlado por programas artificiales capaces de pensar por sí solos, o de resolver situaciones complicadas. Sí, la inteligencia artificial (IA) ya está cambiando nuestras vidas y se espera que tenga un impacto aún mayor en el futuro. La IA se está utilizando en una variedad de áreas, desde la atención médica y la educación hasta el transporte y las finanzas. La IA puede mejorar la eficiencia y la precisión de muchas tareas, permitiendo a las empresas y organizaciones automatizar procesos y tomar decisiones más informadas, es decir, más ajustadas a la realidad. Esto puede aumentar la productividad y reducir los errores. En el ámbito de la atención médica, se espera que la IA pueda mejorar el diagnóstico y el tratamiento de enfermedades, permitiendo a los médicos ofrecer un nivel de atención más personalizado y eficiente. En el ámbito de la educación, la IA se está utilizando para personalizar el aprendizaje y mejorar la eficiencia. Sin embargo, la IA también plantea algunos desafíos y preocupaciones, como el impacto potencial en el empleo, la privacidad y el impacto social. Por eso resulta tan importante abordar estos desafíos y garantizar que la IA se utilice de manera ética y responsable, para que pueda beneficiarnos a largo plazo. Y eso es precisamente lo que se plantea la UE al tratar de regular la su aplicación. La reciente aparición de programas como ChatGPT ha hecho que Europa frene la redacción de la ley para contemplar esta nueva evolución de la IA, una IA que resulta por primera vez gratuita y cercana para los ciudadanos europeos. Realmente la Unión Europea ha tomado una posición activa en la discusión global sobre la Inteligencia Artificial (IA) y ha desarrollado una estrategia destinada a garantizar que la IA se utilice de forma ética y responsable. En abril de 2018, la UE presentó una iniciativa para el desarrollo de la IA en Europa que incluye una inversión en investigación, un plan de acción para el desarrollo de la IA, la creación de un centro de excelencia de la IA y la mejora de las habilidades y competencias necesarias para el uso seguro y eficiente de la IA. Además, en diciembre de 2020, la Comisión Europea presentó una propuesta de Reglamento sobre la IA que tiene como objetivo garantizar que la IA se utilice de forma segura y ética en la UE. La propuesta establece una serie de requisitos y obligaciones para las empresas y organizaciones que desarrollan, utilizan o comercializan sistemas de IA en la UE, centrándose en las aplicaciones que presentan riesgos para la seguridad y los derechos humanos. PERO, DE QUE HABLAMOS CUÁNDO HABLAMOS DE IA Desde GantaBI, empresa dedicada precisamente a la IA, pasando por soluciones de business intelligence y en análisis y desarrollo del Big Data, nos aclaran algunos puntos clave para saber de qué hablamos cuando hablamos de IA. Esto es lo que nos cuentan: |
En abril de 2021, la Comisión presentó su paquete sobre IA, el cual incluía un comunicado sobre el fomento de un enfoque europeo de la IA, una revisión del Plan Coordinado sobre Inteligencia Artificial (con los Estados miembros de la UE) y una propuesta de Reglamento por el que se establecen normas armonizadas sobre la IA: la Ley de Inteligencia Artificial. Una ley que lleva más de dos años en preparación y de la que se espera que se convierta en un hito legislativo de la UE que regule el uso de la IA en Europa. Los legisladores han propuesto clasificar las distintas herramientas de IA según su nivel de riesgo percibido (de bajo a inaceptable). Los gobiernos y las empresas que utilicen estas herramientas tendrán diferentes obligaciones, en función del nivel de riesgo. ¿Cuál es el ámbito de aplicación de la Ley de IA? La Ley es amplia y regirá a cualquiera que ofrezca un producto o un servicio que utilice IA. A su vez, abarcará los sistemas que puedan generar resultados como contenidos, predicciones, recomendaciones o decisiones que influyan en el entorno.Además de los usos de la IA por parte de las empresas, también estudiará la IA utilizada en el sector público y las fuerzas de seguridad. Trabajará en tándem con otras leyes como el Reglamento General de Protección de Datos (RGPD). Quienes utilicen sistemas de IA que interactúen con seres humanos, se utilicen con fines de vigilancia o puedan utilizarse para generar contenidos «deepfake» se enfrentan a fuertes obligaciones de transparencia. ¿Cuándo se considerará una IA de “alto riesgo”? Una serie de herramientas de IA pueden considerarse de alto riesgo, como las que se utilizan en infraestructuras críticas, cuerpos de seguridad o educación. Están un nivel por debajo de «inaceptables» y, por tanto, no se prohíben rotundamente.En cambio, es probable que quienes utilicen IA de alto riesgo se vean obligados a completar rigurosas evaluaciones de riesgo, registrar sus actividades y poner los datos a disposición de las autoridades para su escrutinio. Es probable que esto aumente los costes de cumplimiento para las empresas.Muchas de las categorías de «alto riesgo» en las que se controlará estrictamente el uso de la IA serían ámbitos como la aplicación de la ley, la migración, las infraestructuras, la seguridad de los productos y la administración de justicia. ¿Cuándo entrará en vigor la Ley de IA? Aunque el sector espera que la Ley se apruebe este año, no hay un plazo concreto. La Ley está siendo debatida por los parlamentarios y, una vez que lleguen a un acuerdo, se celebrará un diálogo a tres bandas entre representantes del Parlamento Europeo, el Consejo de la Unión Europea y la Comisión Europea. Una vez ultimados los términos, habrá un periodo de gracia de unos dos años para que las partes afectadas puedan cumplir la normativa”. UNA LEY A DEBATE EN EL PARLAMENTO EUROPEO El pasado 11 de mayo tuvo lugar la tan esperada votación de los Comités del Parlamento Europeo encargados del Reglamento de Inteligencia Artificial (Reglamento de IA o AI Act). Desde la confederación de consumidores CECU nos trasladan su preocupación por la ausencia de prohibición de algunos sistemas de reconocimiento de emociones y sus riesgos para las personas consumidoras. Los Comités IMCO y LIBE (de Mercado Interior y Protección del Consumidor, de Libertades Civiles, Justicia y Asuntos de Interior, respectivamente) votaron en la reunión del 11 de mayo los compromisos de enmiendas, que contenían importantes previsiones respecto de muchos de los reclamos que se vienen formulando desde la sociedad civil. Más aún, si se tiene en cuenta que, desde el lado del Consejo de la UE, los Estados Miembros no fomentaron el reconocimiento de derechos básicos frente a los sistemas de IA. Esta votación iba tener lugar a fines del año pasado o principios del corriente, pero los trabajos en el Parlamento se vieron demorados, entre otras cuestiones, por el lanzamiento al público de sistemas de IA generativa, como ChatGPT, que ni siquiera se encontraban contemplados en la propuesta original de la Comisión Europea (realizada en abril de 2021). Sobre este tema es importante destacar que los europarlamentarios han acordado someter la IA generativa a reglas específicas, como obligar a los desarrolladores de IA a identificar, reducir y mitigar los riesgos para la salud, la seguridad y los derechos fundamentales antes de colocar el sistema de IA en el mercado. En cuanto a las mejoras para las personas consumidoras que han introducido los europarlamentarios, desde CECU destacan las siguientes: . Se ha ampliado el listado de prácticas prohibidas, habiéndose incorporado expresamente la prohibición del uso de identificación biométrica por parte de autoridades públicas y entidades privadas en espacios de acceso público, tanto en tiempo real como “ex post” (aunque lamentamos que esta última contenga una excepción). Estos sistemas no tienen cabida es nuestra sociedad, son muy intrusivos y restringen desproporcionadamente nuestros derechos fundamentales. Asimismo, se prohíbe la calificación social por parte de entidades públicas y privadas. . Se han reconocido derechos en favor de las personas consumidoras, como el derecho a presentar un reclamo ante autoridades públicas, el derecho a acceder a un recurso judicial, el derecho a solicitar reparaciones o medidas cautelares colectivas y el derecho a ser informados cuando se está sujeto a una decisión de un sistema de IA de alto riesgo. Asimismo, se ha introducido la obligación de realizar una evaluación de impacto sobre derechos fundamentales de manera previa a poner en funcionamiento un sistema de alto riesgo. . Se ha ampliado el listado de sistemas de IA alto riesgo (aquellos sobre los que recaen la mayoría de las obligaciones del Reglamento), incorporando los sistemas de recomendación utilizados por grandes plataformas (según se encuentran definidas en la Ley de Servicios Digitales) y algunos sistemas que se utilicen en el sector de seguros. Sin embargo, hay cuestiones que desde CECU lamentablemente consideran negativas: . Se ha adoptado una definición limitada de qué se entiende por sistema de IA, en comparación con la propuesta original de la Comisión. . Se ha debilitado la clasificación de sistemas de alto riesgo. Según la propuesta de la Comisión, determinados sistemas de IA son considerados automáticamente de alto riesgo. Sin embargo, el texto de los Comités permite que las empresas o las autoridades evalúen por sí mismas si su sistema califica como de alto riesgo o no. Esto podría resultar fácilmente en evaluaciones erróneas sobre si un sistema es de alto riesgo y daría a los desarrolladores demasiada discreción para decidir ello. Además, los comités no han presionado para que un tercero certifique si el sistema se ajusta o no al Reglamento. . No se prohíbe el reconocimiento de emociones cuando se usa en las personas consumidoras, lo que puede conducir a graves intrusiones en la privacidad y afectar la capacidad de tomar decisiones autónomas. Más, si se tiene en cuenta que estos sistemas carecen de evidencia científicas certeras. . Los principios aplicables a todos los sistemas de IA independientemente del nivel de riesgo, que se vienen pidiendo desde la sociedad civil, se reconocen solo como voluntarios, lo que limitaría su aplicación efectiva. PASOS RECIENTES Y LO QUE VIENE Se espera que el Parlamento vote en plenario en junio. Luego, empezarán las negociaciones en trílogo entre el Parlamento y los Estados miembros para determinar el texto final. El pasado 14 de junio de 2023, los eurodiputados adoptaron su posición negociadora sobre la ley de IA. A partir de ese momento, comenzaron las conversaciones sobre la forma final de la ley en el Consejo, junto a los países de la UE. Se prevé que se pueda alcanzar un acuerdo a finales de este año. Nota: * CityMotion es una publicación impresa y online orientada al desarrollo de las ciudades, con sede central en España. Utopía Urbana y CityMotion han firmado un acuerdo de colaboración para el intercambio de información relacionada con el desarrollo de las ciudades en el mundo. Otras notas sobre Inteligencia Artificial: El arte de imaginar el futuro: IA y su capacidad para dibujar nuestras ideas5 herramientas basadas en Inteligencia Artificial que usas cotidianamente y no sabías David Guetta usó Inteligencia Artificial para recrear la voz de Eminem y abrió el debate musical Así es el robot de IA que defenderá por primera vez a un acusado en un juicio Inteligencia Artificial, Tecnología y Educación: ¿Pueden convivir en la era de la alfabetización digital? (entrevista Sebastian Nomovisky) Desafíos legales de la utilización de la Inteligencia Artificial |
Europa está preparando lo que sería la primera ley integral sobre IA del mundo, para su regulación. Organizaciones de consumidores como CECU, temen que una laxa regulación de la ley atente contra los derechos fundamentales de las personas. Nota realizada por Citymotion*, colaborador de Utopía Urbana en Europa
Compartir
Author
Utopía Urbana
Artículos Relacionados
tienes que ser suscriptor para comentar