ChatGPT y su relación con las bibliotecarias… de cualquier ámbito


La semana pasada salió a la luz la herramienta ChatGPT creada por OpenAI. El acceso, de momento, es gratuito: sólo requiere registrarse y lo podéis hacer desde este enlace: chatGPT. Pero antes de empezar a jugar o cacharrear con la herramienta deja que te cuente algunas cosas que te pueden resultar de utilidad.

Te explico qué es: es un sistema conversacional basado en inteligencia artificial. Tú preguntas y el sistema responde. Pero que responda no significa que razone ni que haga cálculos ni que aprenda de tus respuestas. Es decir, es un modelo entrenado con un corpus extensísimo y en varios idiomas. Eso significa que «sabe» o «conoce» sobre todo lo que se le ha enseñado previamente. Según dice OpenAI, el corpus de entrenamiento tiene información hasta 2021. Pensemos en una persona que es capaz de aprenderse todo el texto de una enciclopedia. Cuando tú le preguntas algo y él tiene la información previamente guardada en su memoria, la saca y te la ofrece. Al mismo tiempo, si le preguntas algo que no sabe lo más seguro es que se invente la respuesta en base a su conocimiento adquirido previamente. En el caso de este sistema, un algoritmo decidirá qué palabra es la más probable que aparezca tras otra, y todo basado en los textos que ya tiene, así que la respuesta estará bien construida y será creíble. Pero no tiene por qué ser real. Si el interlocutor avisa de que esa respuesta es errónea, el sistema se disculpará y creará otra respuesta.

Ayer estuve probando ChatGPT y le pedí que me contara qué opinaba sobre la mala ciencia generada por las revistas depredadoras. Aquí podéis ver la primera respuesta:

Pregunto a ChatGPT qué piensa sobre la mala ciencia generada por las revistas depredadoras.

Luego le pregunté qué eran las revistas depredadoras:

Una de las respuestas sobre qué son las revistas depredadoras.

Le pedí una segunda respuesta a la misma pregunta:

Una de las respuestas sobre qué son revistas depredadoras.

Como veis, las respuestas son básicamente iguales. Todas las respuestas comienzan parafraseando la pregunta, que es el pie para empezar a contestar, y terminan con un resumen. Aquí es fácil distinguir que esta información la ha «leído» previamente, estaba entre ese corpus de entrenamiento, así que las respuestas siempre variarán sobre lo mismo.

Pero ¿qué pasa si le hacemos una pregunta sobre algo que no ha leído? Atentos a la pregunta y a la respuesta que da:

Le pido que multiplique 1325 por 72 y me da una respuesta errónea diciendo que el resultado es 962400.

La respuesta que da es errónea, ya que el resultado de multiplicar 1325 por 72 es 95400. Lo que sí ha entendido es que se encuentra ante una multiplicación y sabe teóricamente cómo se multiplica, aunque realmente no sabe hacerlo. Ni puede. Pero la respuesta es categórica, rotunda. Si una persona no sabe multiplicar y lee esta respuesta probablemente la dé por buena.

¿A qué quiero llegar con todo esto? A que este tipo de herramientas a día de hoy (principios de diciembre de 2022) nos puede servir para apoyarnos a la hora de desarrollar un texto, un índice para preparar un trabajo o preguntar por ideas de marketing, por ejemplo. Pero también, a día de hoy, todavía es fácil que nos devuelva textos con información falsa pero presentada de manera firme y que puede confundirnos. Ojo, a día de hoy. Esto va tan rápido que puede que en un mes haya cambiado todo.

Nuestro papel como especialistas en información, da igual el campo de estudio, es poder ofrecer información fiable y relevante en todo momento. Parte de nuestro trabajo es ayudar a confirmar si la información que leemos o nos llega es real o inventada. Y aquí, por ahora, se nos abre un abanico importante donde podemos ofrecer las fuentes fidedignas. Porque sí, también le pregunté a ChatGPT si me podía dar las fuentes de la información que me ofrecía:

Le pregunto si puede dar crédito o citar las fuentes que usa. Me dice que no, que está entrenado para ofrecer respuestas como si fuera un humano en base a los textos con los que ha sido entrenado.

Así que nuestro papel como bibliotecarias se puede dividir en dos: por un lado, conocer cómo funcionan estas herramientas para poder explicar a nuestros usuarios en qué aspectos de su trabajo les puede ser útil usarlas, y sobre todo a distinguir el tipo de información que están recibiendo. Por otro lado, como gestoras de información deberíamos aprender a usar estas herramientas: creando preguntas precisas (generando prompts adecuados) recibiremos mejores respuestas. Pero también tenemos que aprender a filtrar esas respuestas y saber cuáles pueden tener un error (como en el caso de la operación matemática) o cuáles podrían ser correctas.

Recuerda: usa Google y ChatGPT, pero consulta también con tu bibliotecaria (humana) de cabecera. Estamos para ayudarte y para darte la respuesta correcta (y apoyada en bibliografía, por si lo quieres comprobar tú).

Le pregunto a ChatGPT cuál es su corpus y me responde que millones de documentos.
Anuncio publicitario

No se almacenan datos personales

Introduce tus datos o haz clic en un icono para iniciar sesión:

Logo de WordPress.com

Estás comentando usando tu cuenta de WordPress.com. Salir /  Cambiar )

Imagen de Twitter

Estás comentando usando tu cuenta de Twitter. Salir /  Cambiar )

Foto de Facebook

Estás comentando usando tu cuenta de Facebook. Salir /  Cambiar )

Conectando a %s

Este sitio usa Akismet para reducir el spam. Aprende cómo se procesan los datos de tus comentarios.