Opinión
El desafío de la IA en la UE, ¿paralizar su desarrollo o regularlo?

- María Ortega Chocano
La irrupción de la Inteligencia Artificial (IA) es una realidad cada vez más palpable en la actualidad. El avance imparable de los sistemas de IA y su adopción generalizada en numerosos ámbitos de nuestras vidas se presenta como una oportunidad para el desarrollo de la innovación y la competitividad global, lo que aporta beneficios económicos y sociales. Al mismo tiempo, plantea preocupaciones como la discriminación, la información sesgada, la pérdida de control o la precariedad laboral. Ello conduce a reflexionar acerca de los riesgos y desafíos éticos por la posible afectación a la seguridad y protección de los derechos fundamentales.
La cuestión que se presenta actualmente en todo el mundo es cómo afrontar el creciente desarrollo de la inteligencia artificial, ya que su regulación avanza a pasos más lentos que los avances tecnológicos. Esta preocupación ha sido objeto de críticas por parte de distintas organizaciones y expertos, que han solicitado una moratoria en el desarrollo y uso de la IA hasta que se establezcan normas claras y garantías suficientes.
Estados Unidos ha iniciado recientemente un periodo de dos meses para recoger propuestas sobre cómo regular estas herramientas, mientras que China ya ha presentado una normativa para regular la IA generativa, que implica una serie de requisitos de seguridad que las empresas deberán cumplir para poder utilizar esta tecnología.
En este contexto, la Unión Europea ha estado debatiendo sobre cuál es la mejor forma de afrontar la situación desde 2019 hasta 2021, momento en que se presentó la propuesta de Reglamento sobre IA (AI Act). Esta pretende establecer un marco legal claro y armonizado para la IA en toda la Unión. Sin embargo, no se espera que pueda entrar en vigor antes de finales del 2023 o incluso ya en 2025. El texto está basado en la evaluación del riesgo y en la clasificación de los sistemas de IA en función de su potencial impacto en la sociedad, con una línea roja que no debe ser sobrepasada debido a su repercusión en los derechos y libertades fundamentales de los ciudadanos.
Uno de los interrogantes es la inclusión de la IA generativa, como ChatGPT, dentro de dicha clasificación. Durante la presidencia francesa de la UE se recomendó incluirla en la categoría de alto riesgo. No obstante, al recaer la amenaza contra la privacidad, persiste la incertidumbre acerca de si lo pertinente sería establecer requisitos específicos en relación con la protección de datos, con base en el marco jurídico ya existente; desde la óptica del Reglamento General de Protección de Datos (RGPD).
Precisamente Italia fue el primer país europeo en emitir un aviso a OpenAI —propietaria de ChatGPT— para que ChatGPT dejara de tratar los datos de los ciudadanos de ese país el pasado 31 de marzo, y le exigiera una serie de medidas sobre la base legal del tratamiento de datos, acogiéndose a esta normativa para prohibir la herramienta.
Después, la Agencia Española de Protección de Datos (AEPD), por su parte, procedió de oficio a iniciar actuaciones de investigación, llevando el asunto al pleno del Comité Europeo de Protección de Datos (EDPB) que tuvo lugar el 13 de abril pasado. El objetivo era abordar conjuntamente una discusión sobre el servicio de ChatGPT y sus posibles implicaciones para los derechos fundamentales de las personas. Por otra parte, Thierry Breton, el comisario europeo de Mercado Interior, anunció que los contenidos generados por IA deberán incluir una advertencia específica sobre su origen. Entonces y con todo, ¿debemos paralizar el desarrollo tecnológico o regularlo?
Si bien es cierto que los sistemas tecnológicos actuales presentan muchos riesgos, detener su desarrollo es igualmente peligroso, ya que esto podría resultar en un aumento de la proliferación encubierta de dichos sistemas. Por lo tanto, esta opción no es viable ni realista.
Existe una falta de comprensión y educación sobre la naturaleza de la tecnología, su uso y las posibilidades que la inteligencia artificial ofrece en relación con la inteligencia humana. Parece que la UE se enfrenta a un desafío entre la inteligencia humana y la artificial, cuando el verdadero reto radica en que las autoridades públicas, las empresas y las instituciones educativas establezcan alianzas y decisiones coordinadas para investigar, supervisar la buena práctica y ética de estos sistemas y fomentar el debate democrático necesario para regularlos. Esto permitirá regular su uso de manera justa y equilibrada, lo que no se logrará deteniendo su desarrollo.
Europa necesita que este Reglamento sea votado y aprobado este mismo mes en el Parlamento Europeo, para que se avance en esta materia y pueda ser adoptado por los Veintisiete lo antes posible. Una vez adoptado, debemos asegurarnos de que sea resistente a los desafíos futuros, no pararnos y continuar avanzando hacia una regulación flexible, que tenga en cuenta la constante evolución y dinamización de la tecnología y que esté armonizada y coordinada a nivel europeo e internacional.
María Ortega Chocano es jurista y socia de Equipo Europa
ETIQUETAS