Wednesday, February 28, 2024

Corrección política & IA generativa: el exceso de frenada


Esto es un caso (muy) interesante y probablemente hasta jocoso de como un hábito social puede terminar convirtiéndose en una barrera para el desarrollo, adopción y utilidad de una nueva tecnología 

Hace unas pocas semanas Google lanzó un modelo de creación de imágenes para Gemini y ahora ha decidido suspenderlo temporalmente debido a que el sistema genera imágenes que algunas personas consideran ofensivas o directamente poco rigurosas 

A partir de aquí viene lo bueno: el propio vicepresidente de Información de Google dice que Gemini se desarrollo teniendo en cuenta todas las prevenciones que hemos visto hasta ahora en estos modelos de creación de imágenes, o sea todo tipo de imágenes para adultos y/o violentas se descartaban de principio...pero cuando un usuario pide (prompt) una imagen genérica de una persona en una situación cualquiera el sistema debería ofrecer todas las variaciones étnicas posibles! para no molestar a la tribu activa de los ofendidos

Ahora bien y como bien dice Evans , si le pides que cree una imagen de un soldado de la SS y te las crea de todas las razas posibles, también se quejan !!!

Del mismo modo, el modelo de generación de imágenes NO debería rechazar peticiones de usuarios que desean imágenes de personas con una etnia especifica o evitar juicios de valor cuando se le pide que nos diga que piensa de tal o cual personaje histórico (prueba con cualquiera!)

Resultado, si antes de que la gente y las empresas te digan que si que los modelos LLM son útiles te dedicas a poner tantas barreras o prevenciones en el sistema para que sea políticamente correcto en sus respuestas, entonces estas creando un tecnología inútil por que la neutralidad cultural NO existe !

¿Queremos crear sistemas de IA a imagen y semejanza de como somos o de lo que deberíamos ser?

Por otra parte, sabemos que la ética y lo que se considera aceptable en una sociedad ha cambiado a lo largo de la historia, de modo que ¿las respuestas de un modelo de IA hoy se podrían considerar socialmente inaceptables dentro de 5 años?

Si desarrollas cualquier cosa ten en cuenta que siempre vas a molestar a alguien ! ¿y entonces que hacemos? ¿que porcentaje de quejas paraliza un proyecto? o solo un número significativo dentro un grupo social sensible? 

El que entienda la tecnología solo desde la tecnología (cultura aparte) es que no entiende la tecnología 




No comments: