ChatGPT se ha convertido en una herramienta sumamente eficaz para realizar algunas tareas; sin embargo, los estudiantes parecen estar abusando de ella a la hora de presentar sus tareas o trabajos en colegios y universidades.

Lo que los profesores han identificado es que se está presentando lo mismo que sucedía hace algunos años cuando existía la popular enciclopedia Encarta o Wikipedia, de donde se copiaba y pegaban los textos que eran presentados por los alumnos.



Ahora, aunque ChatGPT produce textos diferentes, los docentes han comenzado a identificar, de algunas formas, que estos documentos no son creados por los propios estudiantes, sino que están recurriendo a esta herramienta de inteligencia artificial desarrollada por OpenAI para ganar tiempo aprobar las materias con trabajos que hacen pasar como suyos.

Ante esta necesidad de los profesores y como respuesta a ChatGPT, la tecnología también le ha dado una mano a los docentes y ha creado una inteligencia artificial capaz de detectar el contenido que ha sido creado con ChatGPT. Esta nueva herramienta tiene más de 175 millones de parámetros y se sigue entrenando cada minuto mientras es utilizada, lo que le permite entender cómo escribe el bot de OpenAI y así dejar en evidencia a los estudiantes que lo utilizan en sus tareas.



Uno de ellos es AI Text Classifier, también desarrollado pro OpenAI y el cual es de abierto y gratuito; a este se suman Writer.com o GPT Zero, los cuales realizan bien su función, pero presentan algunas limitaciones. Todas estas herramientas operan con mejores resultados en textos en inglés y, además, no logran identificar, con exactitud, documentos que han sido modificados por los alumnos, pues hay algunos muy precavidos que alteran algunos párrafos o frases, lo que logra despistar a estos programas.

Y es que hay quienes ni siquiera se toman la molestia de leer lo que ChatGPT escribe y no se percatan que en algunas partes de los textos aparece la frase “como un modelo de lenguaje IA”, explicación que da la herramienta para intentar justificarse ante algunas de las frases o enunciados que deja en el documento.

Como se ha mencionado en más de una ocasión, esta inteligencia artificial puede llegar a caer en malas manos. En ese orden de ideas, el portal Andro4All indica que se ha descubierto que ChatGPT puede generar un malware mutante que resulta muy difícil de detectar.

Ante esto, diferentes escuelas y universidades en el mundo han recurrido a una solución milenaria con el fin de que los estudiantes sean los que realicen sus propios trabajos; por ejemplo, en Australia, sus ocho principales universidades, y en California, algunos institutos, prefirieron que sus alumnos realizaran sus trabajos a mano, algo que, desde las directivas de esas instituciones ha sido una solución viable.

La razón de por qué se hace complicado su búsqueda, se debe al protocolo conocido como “Endpoint detection and response” (EDR, por sus siglas en inglés). Esta técnica ha demostrado ser incapaz de encontrar cualquier peligro que pueda crear el chatbot, debido a que su código puede mutar.

Como es bien sabido, la mayoría de modelos de lenguaje han sido diseñados con filtros para no ser malvados; no obstante, en algunos casos se pueden sobrepasar estos límites para que los ciberdelincuentes generen virus que afecten a los demás usuarios.

Por ejemplo, el mencionado portal asegura que ChatGPT es muy vulnerable a los métodos que utilizan los hackers para la creación de códigos para generar los malwares. En ese sentido, esto puede representar un riesgo para la seguridad de todo internet, debido a que puede haber una gran vulneración de los datos.

No obstante, se espera que Open AI, compañía encargada del desarrollo de ChatGPT, presente una solución al problema, ya que varios expertos aseguran que se podría volver una práctica en otros chatbots que cuentan con inteligencia artificial.

Cabe mencionar que Sam Altman, CEO de OpenAI, días atrás ha lanzado una nueva advertencia al mundo sobre el ChatGPT. El alto ejecutivo reiteró el riesgo que supone para la humanidad la inteligencia artificial y se atrevió a sugerir una figura similar como la Agencia Internacional de Energía Atómica de la ONU, para controlar y vigilar esta nueva tecnología que mantiene en vilo al planeta.

“El desafío que tiene el mundo es cómo vamos a manejar esos riesgos y asegurarnos de que aún podamos disfrutar de esos tremendos beneficios. (…) Nadie quiere destruir el mundo”, indicó el ejecutivo.
Altman se refirió a este organismo de control nuclear creado por la Organización de las Naciones Unidas y lo puso como un ejemplo de lo que hicieron los diferentes gobiernos del mundo para controlar un peligro inminente como la energía nuclear luego de que Estados Unidos atacara a Japón con dos bombas nucleares al final de la Segunda Guerra Mundial.

“Asegurémonos de unirnos como un globo terráqueo, y espero que este lugar pueda desempeñar un papel real en esto. (…) Hablamos del Oiea como un modelo en el que el mundo ha dicho ‘OK, tecnología es muy peligrosa, pongamos todos algunas barandillas’. Y creo que podemos hacer ambas cosas”, recalcó Altman, dejando sobre la mesa, una vez más, su preocupación por lo que pueda llegar a pasar en el mundo si la inteligencia artificial se sale de control