Equilibrio delicado: Navegando entre innovación y regulación en la IA europea

Equilibrio delicado: Navegando entre innovación y regulación en la IA europea

La intención de las instituciones europeas para regular la Inteligencia Artificial (IA) marca un paso significativo hacia la armonización, y alcance, de esta “era de la IA” en la Unión Europea (UE). Pero, este acuerdo ¿es positivo? ¿Llega tarde la Unión Europea? ¿Es demasiado proteccionista o está imbuido de una pretendida superioridad moral (no siempre cierta) de carácter ético? Aquí mi opinión al respecto.

La propuesta se centra en enfoque basado en riesgos y su atención quiere focalizarse (loablemente si se hace de forma sincera) en los derechos fundamentales, a la vez que busca equilibrar la promoción de la innovación con la protección de los ciudadanos. Sin embargo, como experto en IA, sostengo que, aunque la regulación es necesaria, debe abordarse con cautela para no obstaculizar el progreso tecnológico y la competitividad de Europa en el panorama mundial de la IA. Y la regulación de la IA tampoco debe hacerse alardeando de una supuesta IA en favor de la ciudadanía cuando después la cara y realidad que muestra la Unión Europea en muchas de sus otras decisiones dista mucho de ese “paraíso” de los derechos fundamentales, civiles y humanos de los que se pretende presumir de cara a la opinión pública.

La distinción entre sistemas de IA de "alto riesgo" y "riesgo mínimo" es un paso acertado, permitiendo una mayor libertad para innovar en áreas de menor riesgo. Sin embargo, el extenso catálogo de requisitos para sistemas de alto riesgo, aunque sea o fuese bienintencionado, podría imponer cortapisas y cargas regulatorias que desalienten la investigación y el desarrollo. Los espacios controlados de pruebas son una iniciativa positiva, pero su éxito dependerá de su implementación práctica y de si realmente facilitan la innovación.

La prohibición de sistemas que representen un "riesgo inadmisible" resalta prioridad de la UE por los derechos humanos y la ética según dicen. No obstante, es crucial (a mi entender) que estas prohibiciones no se interpreten de manera excesivamente abierta, amplia ni restrictiva, lo que podría lastrar y capar desarrollos beneficiosos. La transparencia en sistemas de IA es fundamental, pero también lo es garantizar que estos requisitos no limiten innecesariamente la creatividad y la innovación tecnológica.

Las medidas coercitivas previstas, aunque necesarias en cualquier ley para intentar asegurar su cumplimiento, podrían ser excesivas o incluso injustas según el modo cómo se apliquen, especialmente para pymes y startups, potencialmente obstaculizando su capacidad para innovar y competir. Las normas específicas que puedan establecerse para modelos de IA de uso general son prometedoras, pero su efectividad dependerá de cómo se equilibre la colaboración entre industria, sociedad civil y organismos reguladores.

En conclusión, mientras se puede celebrar la intención de la UE de liderar globalmente en la regulación ética de la IA, insto a una implementación cuidadosa de esta legislación. Es vital garantizar que la regulación proteja a la ciudadanía, pero que también fomente un ambiente en el que la innovación y el progreso tecnológico puedan prosperar, otorgando así una competitividad global de la UE en el campo de la IA. Una competitividad global que la UE no debería permitir que se le escapase en su totalidad, pues en parte ya se le ha escapado. Y todo ello sin mencionar que ya ha perdido demasiados trenes y posiciones en el escenario geopolítico y en muchos otros escenarios mundiales.

Un último apunte: no se le pueden poner puertas al campo y quien lo intenté perderá (sin que ello signifique que no puedan establecerse normas en el vasto campo). La IA es imparable, simplemente debe de gestionarse el modo de tratarla.

Jordi G. Castillón