Hace 73 años Alan Turing desarrolló su famoso test conocido como el juego de la imitación (que la industria popularizó en una película ) en aquella época de posguerra cuando la Inteligencia Artificial era un poco más que una jerga científica de unos pocos, con el fin de probar si una IA era capaz de engañar a un evaluador humano al tratar de distinguir humano de máquina
Con fases de estancamiento (winters) y desarrollo la IA continuó perfeccionando sus modelos hasta convertirse en una tecnología esencial para muchas empresas no solo tecnológicas, pero alejada del mercado de consumo por su escasa aplicación en tareas cotidianas
Lo que resulta extraordinariamente curioso es que en apenas 2 meses desde que OpenAI lanzó ChatGPT se ha producido un boom (con cautela) del uso y apropiaciòn de los sistemas de AI por parte de personas normales y corrientes que han visto (casi) de repente que los sistemas AI generativos (lo que generan texto e imágenes) son realmente útiles para algunas tareas
Que esta afirmación es cierta lo prueba el hecho de que la propia OpenAI se ha visto obligada a ofrecer un sistema clasificador que ayude a distinguir sin un texto ha sido escrito por una sistema de IA como ChatGPT o por una persona, reconociendo además que es literalmente imposible detectar todos los textos que han sido generados por IA (ya tiene +1 millón de usuarios)
El detector de OpenAI no ofrece respuestas muy precisas más bien indica el grado de probabilidad de que sea un texto escrito por AI, basculando entre "muy poco probable" "posiblemente" y muy probable (98% de posibilidades de que sea), pero en esto NO difiere mucho de sistemas profesionales que he empleado por ejemplo para detectar plagios en un trabajo
Sin embargo la cuestión aqui es si en efecto llegará a ser importante detectar sin un texto lo ha escrito una persona o un sistema de IA si lo que dice cumple con los objetivos que se esperaban, pienso sobre todo en textos educacionales o en respuestas a problemas comunes en webs de organizaciones de todo tipo (como un sustituto de la FAQ)
En efecto vamos a tener o tenemos ya un problema de cómo evaluamos a una persona que presenta un ejercicio que ha sido "ayudado" por ChatGPT y los crecientes etcéteras, por que el texto ya no es 100% probatorio de que esa persona sabe de la materia en cuestión, sin olvidar tampoco el cuestionamiento del copyright que se va producir cuando proliferen novelas escritas por IA (a quien pertenece ? quien cobra los derechos? )
De momento, no me preocupa mucho todo esto, por que se (leo y estudio casi todo lo que se publica sobre IA) que los modelos generativos como GhatGPT aunque te hagan un texto (casi) perfecto no tienen la más remota idea de que hablan por que se basan en métodos estadísticos (probabilidad que tal palabra o concepto vaya junto a tal o cual pregunta o afirmación) y por eso (casi) siempre podremos averiguar una autoría simplemente preguntando al presunto autor sobre la materia que trata ...
No comments:
Post a Comment