Friday, February 15, 2019

El efecto camaleón y la Inteligencia artificial: porque es peligroso regalar código


Los avances en Inteligencia Artificial (AI) son una de las facetas más emocionantes no solo de la tecnología sino de la breve historia de este siglo XXI

Una AI suficientemente desarrollada constituye una esperanza (comercial, humana) para muchos pero también una preocupación para otros, entre ellos algunos personajes tan señalados en el universo tech-emprendedor como la rock star Elon Musk

Esta pre-ocupación le llevó a fundar hace ya 4 años OpenAI, una empresa sin animo de lucro (?) que con el generoso donativo de Elon (se estima que no menos de 1000 millones dolares) encauzaría la investigación y sobre todo los desarrollos en AI hacia buenos propósitos (don´t be evil versión AI)

La idea básica era y (es) compartir haciendo público todos los avances que se produzcan en todas las áreas significativas de la AI, hasta que este mes se ha producido la primera y significativa  paradoja en el proyecto

La segunda versión de su programa de comprensión de lenguaje, llamada GPT2, no va a ser compartida con la comunidad por el peligro que supone poner en manos de cualquiera una herramienta tan poderosa para crear textos extraordinariamente realistas a un costo además tan bajo

Según la propia OpenAI el modelo del GPT2 podria ser usado para algunas maldades como: generar artículos engañosos, hacerse pasar por un autor en un texto, automatizar la producción de noticias falsas en medios sociales, spam y phising

Si leeis los ejemplos de como el sistema genera un texto coherente a partir de un pequeño ejemplo escrito por una persona, inventa una historia a partir de dos personajes o responde a un test ..te puedes quedar de piedra sobre el estado del arte o donde de verdad nos hallamos en IA

Un peligro de estos sistemas tan obsesivamente perfectos es que pueden imitar el estilo de escritura de cualquier persona (el efecto camaleón), simplemente alimentándolo con textos escritos por el propio autor. Siendo facil imaginar el peligro que tiene inundar las redes populares con este tipo de textos....

La propia OpenAI nos anima a que cada vez más seamos escépticos ante lo que leamos, veamos en la red...ya que un factor determinante es lo barato que resulta generar contenido engañoso o directamente falso. 

Este factor del abaratamiento es el que más me preocupa por que aunque en efecto los avances en técnicas de identificación de fake news, videos etc se produzcan a la misma velocidad, el volumen de lo que viene va a generar una demora entre que el contenido falso o malintencionado se pone en circulación y algún sistema lo detecta...l

El escenario final de hacia donde vamos tendrá que ser necesariamente la vuelta a las fuentes fiables, sabiendo también que no hay nadie ni nada 100% fiable, algo que en teoria debería beneficiar a los periodicos serios, a los autores científicos y organizaciones que se supone estan por encima del debate partidario/ideologico....  


 

No comments: