IA Generativas: cuidado con lo que deseas


Actualmente, las inteligencias artificiales generativas, como los LLM, están en boca de todos, pero ¿sabemos cómo funcionan? ¿Qué significan para nuestro futuro y cómo nos afectan?

En Alter Biblio, nos esforzamos por mantenernos actualizados en los avances tecnológicos y de datos. Desde nuestro inicio, hemos estado comprometidos con la difusión de información y conocimiento, y no podemos ignorar esta revolución.

Hemos organizado una charla gratuita y divulgativa para aquellos interesados en comprender los fundamentos de los algoritmos de inteligencia artificial. De manera amigable, exploraremos cómo funcionan los algoritmos generativos, su impacto en la sociedad y las implicaciones en nuestra vida cotidiana. Analizaremos los beneficios y riesgos de estas tecnologías, y especularemos sobre el rumbo de estos avances en un futuro cercano.

Juan Antonio Casado, socio de Alter Biblio y experto en innovación y tecnología, ofrecerá una perspectiva iluminadora en medio del ‘hype’ actual.

La charla se transmitirá en vivo a través de Zoom el próximo martes 4 de abril a las 16:00h (Madrid). Aunque hay un límite de 100 plazas y es necesario registrarse: https://bit.ly/IA-generativas

Charla divulgativa y gratuita sobre IA generativas. Dirigida a todos los públicos, pero sobre todo a quienes no tienen mucho conocimiento sobre estos temas

Este post se publicó primero en Alter Biblio.

Anuncio publicitario

ChatGPT y su relación con las bibliotecarias… de cualquier ámbito


La semana pasada salió a la luz la herramienta ChatGPT creada por OpenAI. El acceso, de momento, es gratuito: sólo requiere registrarse y lo podéis hacer desde este enlace: chatGPT. Pero antes de empezar a jugar o cacharrear con la herramienta deja que te cuente algunas cosas que te pueden resultar de utilidad.

Te explico qué es: es un sistema conversacional basado en inteligencia artificial. Tú preguntas y el sistema responde. Pero que responda no significa que razone ni que haga cálculos ni que aprenda de tus respuestas. Es decir, es un modelo entrenado con un corpus extensísimo y en varios idiomas. Eso significa que «sabe» o «conoce» sobre todo lo que se le ha enseñado previamente. Según dice OpenAI, el corpus de entrenamiento tiene información hasta 2021. Pensemos en una persona que es capaz de aprenderse todo el texto de una enciclopedia. Cuando tú le preguntas algo y él tiene la información previamente guardada en su memoria, la saca y te la ofrece. Al mismo tiempo, si le preguntas algo que no sabe lo más seguro es que se invente la respuesta en base a su conocimiento adquirido previamente. En el caso de este sistema, un algoritmo decidirá qué palabra es la más probable que aparezca tras otra, y todo basado en los textos que ya tiene, así que la respuesta estará bien construida y será creíble. Pero no tiene por qué ser real. Si el interlocutor avisa de que esa respuesta es errónea, el sistema se disculpará y creará otra respuesta.

Ayer estuve probando ChatGPT y le pedí que me contara qué opinaba sobre la mala ciencia generada por las revistas depredadoras. Aquí podéis ver la primera respuesta:

Pregunto a ChatGPT qué piensa sobre la mala ciencia generada por las revistas depredadoras.

Luego le pregunté qué eran las revistas depredadoras:

Una de las respuestas sobre qué son las revistas depredadoras.

Le pedí una segunda respuesta a la misma pregunta:

Una de las respuestas sobre qué son revistas depredadoras.

Como veis, las respuestas son básicamente iguales. Todas las respuestas comienzan parafraseando la pregunta, que es el pie para empezar a contestar, y terminan con un resumen. Aquí es fácil distinguir que esta información la ha «leído» previamente, estaba entre ese corpus de entrenamiento, así que las respuestas siempre variarán sobre lo mismo.

Pero ¿qué pasa si le hacemos una pregunta sobre algo que no ha leído? Atentos a la pregunta y a la respuesta que da:

Le pido que multiplique 1325 por 72 y me da una respuesta errónea diciendo que el resultado es 962400.

La respuesta que da es errónea, ya que el resultado de multiplicar 1325 por 72 es 95400. Lo que sí ha entendido es que se encuentra ante una multiplicación y sabe teóricamente cómo se multiplica, aunque realmente no sabe hacerlo. Ni puede. Pero la respuesta es categórica, rotunda. Si una persona no sabe multiplicar y lee esta respuesta probablemente la dé por buena.

¿A qué quiero llegar con todo esto? A que este tipo de herramientas a día de hoy (principios de diciembre de 2022) nos puede servir para apoyarnos a la hora de desarrollar un texto, un índice para preparar un trabajo o preguntar por ideas de marketing, por ejemplo. Pero también, a día de hoy, todavía es fácil que nos devuelva textos con información falsa pero presentada de manera firme y que puede confundirnos. Ojo, a día de hoy. Esto va tan rápido que puede que en un mes haya cambiado todo.

Nuestro papel como especialistas en información, da igual el campo de estudio, es poder ofrecer información fiable y relevante en todo momento. Parte de nuestro trabajo es ayudar a confirmar si la información que leemos o nos llega es real o inventada. Y aquí, por ahora, se nos abre un abanico importante donde podemos ofrecer las fuentes fidedignas. Porque sí, también le pregunté a ChatGPT si me podía dar las fuentes de la información que me ofrecía:

Le pregunto si puede dar crédito o citar las fuentes que usa. Me dice que no, que está entrenado para ofrecer respuestas como si fuera un humano en base a los textos con los que ha sido entrenado.

Así que nuestro papel como bibliotecarias se puede dividir en dos: por un lado, conocer cómo funcionan estas herramientas para poder explicar a nuestros usuarios en qué aspectos de su trabajo les puede ser útil usarlas, y sobre todo a distinguir el tipo de información que están recibiendo. Por otro lado, como gestoras de información deberíamos aprender a usar estas herramientas: creando preguntas precisas (generando prompts adecuados) recibiremos mejores respuestas. Pero también tenemos que aprender a filtrar esas respuestas y saber cuáles pueden tener un error (como en el caso de la operación matemática) o cuáles podrían ser correctas.

Recuerda: usa Google y ChatGPT, pero consulta también con tu bibliotecaria (humana) de cabecera. Estamos para ayudarte y para darte la respuesta correcta (y apoyada en bibliografía, por si lo quieres comprobar tú).

Le pregunto a ChatGPT cuál es su corpus y me responde que millones de documentos.