top of page

OpenAI cierra su herramienta de detección de plagio generado por IA silenciosamente


El clasificador de inteligencia artificial ha dejado de estar disponible en ChatGPT debido a su índice de precisión insuficiente. OpenAI cede momentáneamente ante la lucha contra el plagio, asegurando que su herramienta actual no es capaz de detectarlo con garantías. Con solo una tasa de éxito del 26 % identificando textos generados por IA, que desciende o crece dependiendo de factores como la longitud, el idioma o la sencillez del escrito, la compañía considera no válida su herramienta contra el plagio


OpenAI cancela su herramienta de plagio generado por IA. Su rendimiento no es suficiente y depende de demasiados factores. La compañía trabaja en la búsqueda de soluciones para perfeccionar la identificación de textos generados por inteligencia artificial. El clasificador de inteligencia artificial ha dejado de estar disponible en ChatGPT debido a su índice de precisión insuficiente. OpenAI cede momentáneamente ante la lucha contra el plagio, asegurando que su herramienta no es capaz de detectarlo con garantías.


Con solo una tasa de éxito del 26 % identificando textos generados por inteligencia artificial, que desciende o crece dependiendo de factores como la longitud, el idioma o la sencillez del escrito, la compañía considera no válida su herramienta contra el plagio. “Nuestro objetivo es evitar que la IA se utilice para desinformar o engañar a las personas. Por ejemplo, impedir que se afirme falsamente que un texto generado por IA ha sido escrito por un humano, evitar su uso en deshonestidades académicas, o posicionar un chatbot de IA como si fuera humano”, recoge en un comunicado en su web OpenAI.


Aseguran además que, aunque puede parecer desalentador, el equipo está comprometido a mejorar, buscando técnicas más eficaces para determinar la procedencia de los textos y desarrollar mecanismos que ayuden a los usuarios a discernir si el contenido está generado por IA.


La fiabilidad del clasificador mejora con la longitud del texto y se observa un rendimiento más alto en los textos generados por los sistemas de IA más recientes. Sin embargo, el equipo advertía que el clasificador no debería usarse como la herramienta principal para tomar decisiones, sino como un complemento a otros métodos para determinar la procedencia de un texto.


El clasificador tiene, hoy por hoy, varias limitaciones significativas. Es poco fiable con textos cortos, por debajo de 1.000 caracteres. Además, no es completamente fiable con textos en otros idiomas aparte del inglés. La precisión también se vería comprometida cuando se trata de textos muy predecibles. "Es importante destacar que los textos generados por IA pueden editarse para eludir la detección del clasificador. Aunque podemos mejorar y reentrenar nuestro sistema, la detección a largo plazo sigue siendo un desafío”, explica la compañía.


El entrenamiento del clasificador se llevaría a cabo con un conjunto de datos de textos escritos por humanos e IA, con un ajuste de confianza para mantener la tasa de falsos positivos baja. Es decir, solo se marca un texto como probablemente generado por IA si el clasificador tiene mucha confianza en ello.


“Estamos trabajando con educadores y otros grupos para aprender más sobre las aplicaciones y limitaciones de nuestro clasificador en diferentes contextos. Parte de nuestra misión es desplegar grandes modelos lingüísticos de manera segura y en estrecha colaboración con las comunidades afectadas”, asegura OpenAI. OpenAI confiesa que busca activamente comentarios y sugerencias para mejorar el clasificador de contenido generado por IA y su implementación en diferentes entornos, incluyendo la educación, el periodismo y la investigación de desinformación.


¿Quieres saber más?


Comments


bottom of page