Wednesday, March 08, 2023

Alto o Bajo riesgo: la regulación europea para la IA generativa

La Unión Europea (UE) no ha conseguido convertir a Europa en líder en ningún sector tecnológico desde el inicio del boom de Internet, y eso que Francia en 1982 fue el país pionero en el mundo en tener un sistema online propio 

Sin embargo lo que si ha logrado es convertirse en una potencia reguladora, con el pistoletazo de salida que supuso la GDPR en el 2018 y que influyó en normativas internacionales posteriores incluso en los US, un país que suele diferir bastante de Europa a la hora de regular los derechos individuales de las personas y/o consumidores (obsérvese el matiz!)  

Desde el 2021 la Comisión Europea tiene bajo el punto de mira reglamentario los aplicaciones de los sistemas de Inteligencia Artificial (IA) con un enfoque muy binario: clasificar estas tecnológicas como de Alto o Bajo Riesgo para los personas que los usan y los padecen/disfrutan

Aunque un principio universal y aceptado del derecho desaconseja legislar en caliente (= como reacción a un hecho concreto) como principio, lo cierto es que a la hora de poner leyes a la tecnología a veces parece que no hay más remedio que fijarse en lo que esta ocurriendo en el momento en que se aprueba un ley

Hace 2 años (recordáis?) la preocupación sobre la IA era evitar que en Europa (and the west) se instalarán aquellos sistemas chinos de social scoring (literalmente ranquear a las personas según su comportamiento social) herederos directos del Gran Hermano de Orwell y limitar/mitigar los efectos de los sistemas de reconocimiento facial (o sea lo que hacen las policías europeas desde hace décadas pero automatizado)

Pero como aparentemente 2 años en IA no es tiempo real sino mucho más (evito exageraciones!) la nueva ola de sistemas IA generativos, como el ya más que popular ChatGPT y su long tail de socios y variaciones del modelo, han trastocado el objetivo inicial de convertir a Europa en el árbitro global del buen uso de la IA

Pero la naturaleza de los sistemas LLM como ChatGPT o los modelos de difusión latente que generan imágenes como Stable Diffusion (mi favorito por que tiene una beta abierta y gratuita) es tan dual que se escapa al reduccionismo de tecnologías de alto o bajo riesgo 

Y...en efecto caí en la tentación de preguntarle al propio ChatGPT que si debe ser considerado como tecnología de alto riesgo para las personas y respondió de esta manera tan ambigua y políticamente correcta : (traducido con otro sistema de IA)

Como modelo lingüístico de IA, ChatGPT es un tipo de tecnología avanzada que tiene el potencial de crear tanto oportunidades como riesgos. 

Uno de los riesgos asociados a los modelos lingüísticos de IA como ChatGPT es la posibilidad de sesgo en los datos utilizados para entrenar el modelo, lo que puede dar lugar a respuestas sesgadas y reforzar los estereotipos sociales y culturales existentes. Otro riesgo es la posibilidad de que agentes malintencionados utilicen la tecnología con fines perjudiciales, como la difusión de información errónea, los ataques de phishing o el ciberacoso.

Además, los modelos lingüísticos de IA como ChatGPT tienen el potencial de alterar los modelos de empleo y los mercados laborales, ya que pueden automatizar tareas que antes realizaban los humanos. Esto puede tener repercusiones tanto positivas como negativas, dependiendo de lo bien que la sociedad sea capaz de adaptarse y recualificar su mano de obra.

Sin embargo, los riesgos asociados a ChatGPT y otras tecnologías de IA pueden mitigarse mediante un diseño, unas pruebas y una regulación cuidadosos, así como mediante un seguimiento y una evaluación continuos. En general, aunque ChatGPT y otras tecnologías de IA pueden considerarse de alto riesgo en algunos contextos, también tienen el potencial de crear beneficios significativos y contribuir al progreso de la sociedad cuando se utilizan de forma responsable y ética.

Como veis el problema es que las aplicaciones de IA no son diferentes de cualquier tecnología anterior, se pueden usar para hacer cosas inimaginables para personas con menos recursos (recordad esto siempre) pero también para engañar, subvertir un orden establecido, difundir más rapidamente contenido moralmente inaceptable o dudoso y otros etcéteras que irán apareciendo 

La solución? en tecnología al menos mi experiencia me dice que hay que aplicar la máxima libertad como principio y luego perseguir sin piedad los usos perjudiciales, pero sin crear etiquetas de tech buena o mala....(cada generación adulta olvida el discreto encanto de lo prohibido!)



No comments: