¿Es fiable usar detectores de escritura para saber si una IA ha creado un texto? OpenAI dice que no
La situación en la que nos encontramos a día de hoy, es que la IA está avanzando a pasos agigantados y tememos que nuestros trabajos estén en juego. Una inteligencia artificial puede hacer el trabajo de un ser humano, siempre que este sea de redacción o incluso programación. Chatbots como ChatGPT se utilizan en el ámbito educativo, donde se le exige que escriba por nosotros y ahora que OpenAI confirma que no funcionan los detectores, por lo no se puede distinguir si se ha escrito por un humano o una IA.
Con la inteligencia artificial, hemos podido dar un gran salto en cuanto a productividad. Con esta podemos automatizar ciertas tareas y aunque en el pasado eran unas pocas, con ChatGPT este número se ha disparado. De hecho, esta IA es la que ha hecho que la sociedad la vea como una herramienta capaz de cambiar el rumbo de la humanidad. Ya no estamos hablando de hacer trabajo por nuestra cuenta, si tenemos una inteligencia artificial capaz de hacerlo por nosotros.
OpenAI asegura que los detectores de escritos por IA no son fiables
La IA no va a desaparecer y hay que acabar acostumbrándose, porque va a quedarse por muchos años y más viendo el gran interés que se ha formado en torno a ella. Aunque la inteligencia artificial nos permita ser más productivos, su uso en ciertos sectores como el educativo, está creando más problemas que soluciones. Imaginad que tenemos una práctica o peor aún, un trabajo de fin de grado y en vez de hacerlo el alumno, se ha encargado la IA. Se han visto casos así, donde el texto generado es prácticamente un copia-pega de lo que se ha generado.
OpenAI, creadores de ChatGPT, lanzaron una herramienta para distinguir si el texto creado lo es por un ser humano o una IA. Sin embargo, han tirado la toalla y decidieron eliminarla el pasado 20 de julio. Ahora se dedican a publicar consejos para que los docentes detecten si se ha empleado ChatGPT. OpenAI confirma lo que ya sabíamos y es que los detectores de texto por IA no son fiables y es mejor depender del juicio humano.
Dan falsos positivos y tienen poca precisión, el ser humano es mejor para identificar
Anteriormente, hablamos de esto y de como OpenAI pretendía lanzar en un futuro un detector más eficaz. El que estuvieron usando muchas veces generaba falsos positivos, calificando a textos escritos por humanos como una IA. OpenAI asegura que la mayoría de estos detectores no son una medida útil para determinar los textos. Es más, su propia herramienta AI Classifier solo tuvo un 26% de precisión a la hora de acertar.
Junto a todo esto, la compañía admite que los modelos de IA actuales suelen sufrir "alucinaciones". Entendemos este término como una manera de tergiversar la información dada usando datos falsos para justificar la respuesta. La IA puede dar rienda libre a su imaginación y acabar inventándose hasta citas de autores.
Todo esto que dice OpenAI se resume en que no tenemos que depender tanto de la IA y mucho menos de los detectores. Un ser humano, como por ejemplo un profesor que conozca como escriben sus alumnos, puede identificar con mayor facilidad y éxito, si se trata de algo escrito por él. Por otro lado, que no existan detectores fiables solo da cabida a que se abuse del uso de la IA aprovechando la situación.