Unión Europea

¿Y si no sabemos de qué hablamos cuando hablamos de inteligencia artificial?

Rara vez sabemos cómo funciona, qué implicaciones tiene en nuestra realidad y sobre todo, qué es

Rosa Egea, secretaria de Equipo Europa
AmpliarAmpliar
Rosa Egea, secretaria de Equipo Europa
Rosa Egea, secretaria de Equipo Europa

CerrarCerrar

Rosa Egea

Publicado el 03/04/2025 a las 12:47

Hablar de inteligencia artificial (IA) está de moda, pero es una gran desconocida para la mayoría de nosotros. Nos fascina, nos asusta o nos deslumbra en titulares, debates y promesas de progreso sin límites. Sin embargo, rara vez sabemos cómo funciona, qué implicaciones tiene en nuestra realidad y sobre todo, qué es. Resulta que cada vez que desbloqueamos el móvil, pedimos un crédito o enviamos un currículum, estamos interactuando con sistemas de IA que además toman decisiones sin que sepamos bien cómo. Es precisamente ahí, en esta mezcla de invisibilidad y desconocimiento, donde empieza el verdadero problema.

Definir qué es la IA es complicado, ya que no existe aún una definición formal y universalmente aceptada. Al preguntar a LeChat -un chatbot europeo de IA- responde que “se trata de un conjunto de sistemas y programas capaces de ejecutar tareas que normalmente requerirían inteligencia humana, como aprender o razonar, mediante el procesamiento de grandes cantidades de datos”. Una buena definición, sobre todo si se refiere a los llamados sistemas de IA generativa como ChatGPT, Gemini o Copilot, desarrollados en EEUU. Sin embargo, la IA es mucho más que eso.

Un ejemplo cotidiano de IA del que quizás no se habla tanto, es el uso de algoritmos en las plataformas de streaming, como Netflix o Spotify. Estas plataformas no nos recomiendan series o canciones por arte de magia, si no que lo hacen gracias a algoritmos que analizan nuestro comportamiento, “aprenden” de él y predicen lo que nos gusta para que pasemos más tiempo consumiendo. Esto también es IA.

Sin embargo, también hay usos menos controvertidos o al menos, claramente beneficiosos como la aplicación de la IA en el ámbito sanitario. Un ejemplo es el acuerdo de colaboración entre la Clínica Universidad de Navarra y Microsoft Ibérica en el cual, una de las principales iniciativas es el desarrollo de un sistema que redacta informes médicos a partir de las conversaciones con pacientes permitiendo reducir significativamente el tiempo que los médicos dedican a tareas administrativas y aumentar el tiempo disponible para la atención directa al paciente.

En lo que respecta a opiniones, diversos estudios muestran que el público general tiene una relación ambivalente con esta tecnología. Según el último Eurobarómetro (febrero de 2025), una mayoría de los europeos cree que la IA tendrá un impacto positivo, aunque al mismo tiempo demanda una regulación firme para evitar abusos. En España, encuestas como la de la Fundación Cotec (mayo de 2024) recogen preocupaciones claras como miedo al desempleo, a la pérdida de control sobre nuestros datos o a la manipulación de decisiones políticas.

No son temores infundados, ya que la IA puede reforzar desigualdades o reproducir sesgos sin que nadie los supervise. No obstante, también puede servir para diagnosticar mejor enfermedades, mejorar la educación o liberar a las personas de tareas tediosas. La cuestión es cómo maximizar sus beneficios sin que eso implique ceder derechos y libertades. Este es precisamente el reto que afronta la Unión Europea con su estrategia digital, en la que se integran numerosas normativas. Entre otras, normas sobre telecomunicaciones, datos, ciberseguridad, identidad digital y lo que aquí nos interesa, el famoso nuevo Reglamento de IA.

Esta norma clasifica los sistemas según su nivel de riesgo: mínimo o nulo (como asistentes virtuales), limitado (como un filtro de spam), altos (los que afectan a ámbitos sensibles como sanidad, justicia o recursos humanos) o inaceptables (como los sistemas que predicen la probabilidad de cometer delitos). A cada uno se le aplican obligaciones proporcionadas que van desde simples exigencias de transparencia hasta auditorías y supervisión humana obligatoria. Además, la norma también impone a las empresas que desarrollan IA la obligación de explicar cómo funcionan estos sistemas, garantizar que respetan los derechos fundamentales y ofrecer mecanismos para que los ciudadanos puedan impugnar decisiones automatizadas.

Estas legislaciones generan opiniones contradichas pues hay quienes creen que una legislación demasiado estricta puede frenar la innovación tecnológica y resultar en que la tecnología europea quede atrás ante potencias como EEUU o China. De hecho, en un contexto internacional cada vez más tenso, donde la IA es ya un recurso estratégico e importante, puede que necesitemos que se avance con mayor agilidad aunque, por supuesto, sin que ello implique ceder derechos. Finalmente, parece que el reto sigue siendo, como busca la Unión Europea, demostrar que es posible, y necesario, conseguir ambos objetivos: máxima competitividad con máximo respeto a los derechos.

Entre todas estas incógnitas, lo que queda claro es que hoy más que nunca, comprender qué es y cómo funciona la inteligencia artificial es una forma de ejercer ciudadanía. La IA no es un tema limitado a los expertos ni tampoco se trata solo de un chat que nos ayuda a hacer los trabajos de la universidad. Se trata de tener la capacidad de decidir, con conocimiento de causa, qué tipo de sociedad queremos construir con -y mediante- esta tecnología. Saber de qué manera queremos que se regule y, sobre todo, ser conscientes de que aunque no se vea a simple vista, ya está en todos lados.

Rosa Egea es la secretaria de Equipo Europa 

Continuar

Gracias por elegir Diario de Navarra

Parece que en el navegador.

Con el fin de fomentar un periodismo de calidad e independiente, para poder seguir disfrutando del mejor contenido y asegurar que la página funciona correctamente.

Si quieres ver reducido el impacto de la publicidad puedes suscribirte a la edición digital con acceso a todas las ventajas exclusivas de los suscriptores.

Suscríbete ahora