¿Cómo decide ChatGPT qué decir a continuación? Aquí tienes una breve explicación.

¿Cómo decide ChatGPT qué decir a continuación? Aquí una breve explicación.

  • Los chatbots de IA como ChatGPT se basan en grandes modelos de lenguaje que reciben una gran cantidad de información.
  • También son entrenados por humanos que ayudan al sistema a “aprender” cuál es una respuesta apropiada.
  • Esto es lo que los expertos en ciencias de la computación explican acerca de cómo los bots saben qué palabras decir a continuación.

ChatGPT y otros chatbots impulsados por inteligencia artificial pueden hablar en frases fluidas y gramaticalmente correctas que incluso pueden tener un ritmo natural.

Pero no te dejes engañar pensando que ese discurso bien ejecutado representa pensamiento, emoción o incluso intención, según los expertos.

La forma en que funciona un chatbot es más similar a una máquina que realiza cálculos matemáticos y análisis estadísticos para seleccionar las palabras y frases adecuadas según el contexto, dijeron los expertos. Hay mucho entrenamiento en el backend, incluyendo la retroalimentación de los anotadores humanos, que ayuda a simular conversaciones funcionales.

Bots como ChatGPT también se entrenan con grandes cantidades de conversaciones que han enseñado a las máquinas cómo interactuar con los usuarios humanos. OpenAI, la compañía detrás de ChatGPT, afirma en su sitio web que sus modelos se instruyen con información de diversas fuentes, incluidos sus usuarios y material con licencia.

Así es como funcionan estos chatbots:

Los chatbots de IA, como ChatGPT de OpenAI, se basan en grandes modelos de lenguaje, o LLMs, que son programas entrenados en volúmenes de texto obtenidos de escritos publicados e información en línea, generalmente contenido producido por humanos.

Los sistemas se entrenan en series de palabras y aprenden la importancia de las palabras en esas series, dijeron los expertos. Por lo tanto, todo ese conocimiento no solo entrena a los grandes modelos de lenguaje en información factual, sino que también les ayuda a descubrir patrones de habla y cómo se usan y agrupan las palabras.

Los chatbots también son entrenados por humanos para proporcionar respuestas apropiadas y limitar los mensajes perjudiciales.

“Puedes decir: ‘Esto es tóxico, esto es demasiado político, esto es opinión’, y enmarcarlo para no generar esas cosas”, dijo Kristian Hammond, profesor de ciencias de la computación en la Universidad Northwestern. Hammond también es el director del Centro para el Avance de la Seguridad de la Inteligencia Artificial de la universidad.

Cuando le pides a un chatbot que responda una pregunta factual simple, el proceso de recuperación puede ser directo: está utilizando un conjunto de algoritmos para elegir la frase más probable para responder. Y selecciona las mejores respuestas posibles en milisegundos, y de esas opciones principales, presenta una al azar. (Es por eso que hacer la misma pregunta repetidamente puede generar respuestas ligeramente diferentes).

También puede descomponer las preguntas en varias partes, responder cada parte en secuencia y utilizar sus respuestas para ayudarlo a terminar de responder.

Supongamos que le pides al bot que nombre a un presidente de EE. UU. que comparta el nombre del actor principal masculino de la película “Camelot”. El bot podría responder primero que el actor en cuestión es Richard Harris, y luego utilizar esa respuesta para darte a Richard Nixon como respuesta a tu pregunta original, dijo Hammond.

“Sus propias respuestas anteriores se convierten en parte del estímulo”, dijo Hammond.

Pero ten cuidado con lo que los chatbots no saben

¿Qué sucede cuando le haces una pregunta a la que no sabe la respuesta? Ahí es donde los chatbots causan más problemas debido a una característica inherente: no saben lo que no saben. Así que extrapolan, basándose en lo que sí saben, es decir, hacen una suposición.

Pero no te dicen que están adivinando; simplemente presentan la información como un hecho. Cuando un chatbot inventa información y la presenta al usuario como algo factual, se le llama “alucinación”.

“Esto es lo que llamamos conocimiento del conocimiento o metacognición”, dijo William Wang, profesor asociado de informática en la Universidad de California, Santa Bárbara. También es co-director del grupo de procesamiento de lenguaje natural de la universidad.

“El modelo realmente no comprende muy bien los conocimientos desconocidos conocidos”, dijo.