ChatGPT será más fiable: OpenAI intenta eliminar las «alucinaciones»

A día de hoy ChatGPT no es totalmente fiable, de hecho, es bastante poco fiable en términos generales, como bien ha comentado el propio Sam Smith en alguna ocasión. El motivo tiene que ver con las llamadas hallucination, o alucinaciones en nuestro idioma. Estas se presentan no solo en ChatGPT, sino en Google Bard o Microsoft Bing Chat. Por ello, y para hacer más confiable su IA, OpenAI está trabajando en mejorar estas alucinaciones para hacer a ChatGPT más fiable, pero el reto es realmente complejo.

Creo que todos estaremos de acuerdo en que en muchas ocasiones ChatGPT se inventa los datos, literalmente hablando. Cuando se le hace ciertas preguntas, la IA de OpenAI no sabe interpretar ni la pregunta, ni sabe, por lo tanto, ofrecer una respuesta. Lo que intenta es aproximarse como tal, y ahí vienen los fallos, porque la empresa no contempla opciones como un NO por respuesta. Al contrario, quiere ofrecer información fiable, pero eso le va a resultar terriblemente complejo.

ChatGPT intentará eliminar las alucinaciones

Sam Altman 2

La ignorancia presentada como afirmaciones, un problema que viene dado por la insuficiencia del conjunto de datos con el que trabaja la IA y que crea los llamados "momentos de incertidumbre". Según la propia OpenAI, el resultado es la invención de la información, de los hechos, o simplemente ofrecer un "razonamiento" equivocado con respuestas incorrectas.

La solución a esto va a llegar por lo que la propia compañía ha denominado como una verificación paso a paso, y en un documento proporcionan los datos de entrenamiento de la siguiente generación de GPT, así como su resumen breve:

En los últimos años, los LLM han mejorado mucho en su capacidad para realizar un razonamiento complejo de varios pasos. Sin embargo, incluso los modelos más avanzados todavía producen errores lógicos con regularidad. Para entrenar modelos más confiables, podemos recurrir a la supervisión de resultados, que brinda retroalimentación para un resultado final, o a la supervisión de procesos, que brinda retroalimentación para cada paso de razonamiento intermedio. Dada la importancia de entrenar modelos confiables y dado el alto costo de la retroalimentación humana, es importante comparar cuidadosamente ambos métodos.

El trabajo reciente ya ha comenzado esta comparación, pero aún quedan muchas preguntas. Llevamos a cabo nuestra propia investigación y descubrimos que la supervisión de procesos supera significativamente a la supervisión de resultados para modelos de entrenamiento para resolver problemas del desafiante conjunto de datos MATH. Nuestro modelo supervisado por procesos resuelve el 78% de los problemas de un subconjunto representativo del conjunto de pruebas MATH.

Además, mostramos que el aprendizaje activo mejora significativamente la eficacia de la supervisión de procesos. Para respaldar investigaciones relacionadas, también lanzamos PRM800K, el conjunto de datos completo de 800.000 etiquetas de retroalimentación humana de nivel que se utilizan para entrenar nuestro mejor modelo de recompensa.

¿Funcionará en todos los entornos?

ChatGPT

Es la gran pregunta. Muchos investigadores al ver esta investigación se muestran reacios realmente, ya que consideran que hay más salidas, por una parte, mientras que por la otra se llega a afirmar que las conclusiones son realmente difíciles de transferir a módulos específicos de la IA.

Además, OpenAI no especifica si su documento está sometido a un proceso de revisión por pares, lo que ha generado más dudas si cabe a la comunidad de la Inteligencia Artificial. Lo que sí que sabemos por ahora es que las IA no van a reemplazar a los modelos de búsqueda tradicionales al 100%, precisamente porque presentan muchos fallos y cuando lo que se intenta es mostrar un resultado fidedigno al usuario, estás siguen ofreciendo estas "alucinaciones", como le ocurre a ChatGPT.