Cuando te dispones a lanzar un nuevo producto al mercado los test previos para evaluar el grado de aceptación o rechazo son paso obligado, con el peaje asociado de tiempos más o menos extensos antes del lanzamiento comercial y sobre todo, la ausencia de diversidad de perfiles de consumidores, en un mercado que se parece más a un crisol que a un conjunto homogeno
Por eso, no fue nada extraño que muchas empresas y labs empezaran a emplear modelos LLM para hacer estas simulaciones, no obstante, el problema fue y es que estos modelos (probabilisticos pero casi mágicos en sus limitaciones) hasta ahora nunca han logrado reproducir el abanico diverso de los tipos humanos, donde al aparecer los outlayers no son normalidad estadistica pero casi
Y digo hasta ahora porque un equipo de investigadores de DeepMind ha presentado un nuevo metodo para generar poblaciones sinteticas con un mayor grado de diversidad y en contextos mucho más amplios que hasta ahora
No es un secreto para (casi) nadie que para personalizar más las respuestas de un modelo basta con añadir un perfil concreto al prompt (soy vegetariano o profesor de literatura) y éste aproxima mucho la respuesta, siempre con la limitacion de que ofrece respuestas promedio dentro de este rango de personalidades, es decir no esta mal pero no cubre los matices de muchas micro-personalidades dentro incluso de una categoria
La propuesta ahora para superar esta limitación es volver a programar el modelo con hasta 25 preguntas generadas por un algoritmo sobre personalidad hasta que los resultados muestren un rango espeficifico de opiniones y actitudes, lo que por supuesto incluye factores tan importantes en algunas investigaciones como el grado de acuerdo o desacuerdo (lease aceptación o rechazo)
Aparentamente y según los autores de esta investigación estos generadores de personas (el nombre es de por si es retador) aceleran las pruebas de sistemas y productos y son más hábiles a la hora de detectar desviaciones aka outliers
Claro y como era de esperar los propios investogadores advierten que esto se puede utilizar con fines maliciosos para desarrollar bots que impacten más al target o incluso crear campañas de desinformación mucho más granulares que las actuales, por eso recomiendan que estas personalidades sinteticas sean complementadas con participación humana
Como veis en apenas 4 años de IA para muchos hemos logrado atinar bastante bien en el promedio humano (lo que no deja de ser grato para la mayoria) y ahora el siguiente paso es incluir los extremos y sus matices intermedios para que los modelos se parezcan mucho más a como realmente somos, o sea un paso más sensato y menos marketinero hacia la AGI

No comments:
Post a Comment