En las tres últimas entradas analicé, bueno, más bien compartí mi experiencia de uso con ChatGPT 3.5, el gratuito. Lo probé en un ambiente universitario, en tres ámbitos: como científico (aquí), como profe (aquí), y como alumno en un examen (aquí)
Pensaba dejarlo aquí y tomarme un descanso, pero resulta que la Universidad de Granada, donde trabajo, han fichado a Microsoft Copilot como IAG para uso de la comunidad universitaria. De momento está disponible para su personal, pero se espera ampliarlo a los alumnos en un Microsoft Copilot (antes Microsoft Enterprise Bing Chat) no es realmente una IAG propia sino un sistema basado en ChatGPT 4 y en DALL-E 3 (para generar imágenes). La idea es que el usuario lo integre en su labor diaria, es decir, que sea como el odioso clip de Office pero en plan primo de Zumosol.
Reconozco que a mí Microsoft no me cae bien, o más bien no me caen bien sus productos, sobre todo eso de estar suscribiéndome y pagando cada año por algo que pagabas una vez y punto (estoy escribiendo esto en Word 2003, no os digo más), pero había oído hablar maravillas de ChatGPT 4, y encima tengo la posibilidad de jugar con DALL-E y hacer dibujitos chulos, así que bien.
La Universidad de Granada tiene un convenio con Microsoft para usar Office 365, y es por ahí por donde tengo que entrar. Vale, pido una cuenta, recibo la aprobación, entro, contraseña nueva… hasta aquí todo bien, salvo por tener que usar Office 365.
No voy a valorar la conveniencia o no de usar esta herramienta en lugar de otras, eso hoy no toca. Sólo mencionaré una decepción. Cuando intenté crear una imagen, apareció un aviso de que “Solo podemos generar imágenes para los usuarios que han iniciado sesión con una cuenta personal de Microsoft”. El propio Copilot me confirma que la generación de imágenes está limitada a cuentas personales de Microsoft. Porras.
Lo que no hice es usar Edge (antes muerto que perder la vida). En su lugar tomé la opción dos: entrar por Bing, el buscador de Microsoft. Entro y abro sesión.
Voy a repetir el proceso que hice con ChatGPT 3.5. Comenzaré con el ejemplo que usé en su momento (aquí). Se trata de buscar una referencia a un artículo relativo a mi campo de investigación, uno de esos “papers” que todos citan pero casi nadie lee… porque es de 1908.
Recordaréis que el viejo ChatGPT (o ChatGPT), para abreviar se hizo un lío porque había dos referencias online, una de ellas incorrecta. A ver si Copilot es más listo:
YO: Necesito la referencia del artículo original sobre dispersión de luz de Mie de 1908.
Copilot: [comienza con una descripción sobre la dispersión de Mie; proporciona tres referencias: electricity-magnetism.org, la Wikipedia, y un post que escribí yo sobre el tema, y que supuestamente incluye un enlace al artículo original pero que en realidad no lo hace. Es una entrada divulgativa, esta por más señas].
YO: Gracias, pero no me has dado la cita bibliográfica, que era lo que quería.
Copilot: [se disculpa y me da la cita bibliográfica… la errónea. Empezamos bien]
YO: ¿Puedes comprobar si el volumen y el número son correctos? He visto otra versión.
Copilot: [pide disculpas y proporciona la referencia correcta]
YO: ¿dónde se puede verificar que esa es la versión correcta?
Copilot: [me repite exactamente la respuesta anterior]
Hasta el momento la charla ha ido bien. Como su primo, Copilot ha comenzado confundiéndose, cosa que yo sabía porque tengo acceso al artículo original. Pronto corrigió, y durante el resto de la charla cada vez que daba la referencia lo hacía bien.
Ahora le pediré algo que no hice con ChatGPT: que me busque una copia online. Sé que no es fácil, estamos hablando de un artículo de 1908 en alemán, pero la revista es muy conocida y el artículo también. Además, juego sobre seguro: tengo aquí enlaces a copias del artículo en alemán, inglés, e incluso español (esa la traduje yo mismo).
YO: ¿Hay alguna copia online accesible?
Copilot: [me incluye la traducción que yo hice y tengo online en mi web]
La cosa va pero que muy bien. Sólo tengo que pedirle el original y rematamos la jugada. Y aquí es donde las cosas comienzan a torcerse.
YO: Gracias. Esa es una traducción en español. ¿Hay alguna copia online del texto original en alemán?
Copilot: [Aquí me vuelve a dar, por tercera vez, la descripción que ya me ha hecho dos veces, relativa a la dispersión de Mie. Está bien la primera vez para dar contexto, pero no necesito que me la repita cada vez que le pregunto algo]
YO: Ya me has dado esa respuesta tres veces, y todavía no me has proporcionado un enlace a una copia online del texto original en alemán. Resalto: copia online, texto original en alemán.
En este punto se desconecta la sesión por error. No sé qué paso, pero no importa. Vuelvo. Y descubro, o más bien recuerdo, que la configuración de privacidad de Copilot para mi Universidad prohíbe usar la información generada por la propia Universidad. Eso significa que Copilot no puede aprender de nuestras charlas; item más, esas charlas no se guardan y por tanto desaparecen en la siguiente sesión. Es como si a Copilot le borrasen la mente cada vez que hablo con él. Lo descubro de la manera más cómica]
YO: No encuentro los chat que ya hemos tenido tú y yo. ¿Puedes decirme cómo acceder a ellos?
Copilot: [me explica cómo acceder a los chats… de Whatsapp. ¡De Whatsapp!]
YO: No me refiero a los chats de Whatsapp, sino a los que tenemos tú y yo en Copilot
Copilot: [me dice que no tiene la capacidad de almacenar o recuperar conversaciones y no tiene memoria]
Volvemos a empezar.
YO: Necesito la referencia del artículo original sobre dispersión de luz de Mie de 1908
Copilot: [comienza a darme la misma descripción que al principio; paso a una pestaña de Bing llamada “bloc de notas”, y en ese momento se detiene la explicación. Copilot deja de trabajar]
YO: sigue
Copilot: ¡Claro! ¿En qué puedo ayudarte hoy? 😊
De repente Copilot se ha convertido en un pez sin memoria. Vale que la pierda por cerrar sesión, ¿pero por cambiar de pestaña? Pues nada, vuelta a empezar.
YO: Necesito la referencia del artículo original sobre dispersión de luz de Mie de 1908, y un enlace a versiones de dicho artículo en español y en el original alemán.
Copilot: [vuelve a darle la descripción sobre la dispersión de Mie. Da la referencia original correcta, pero no incluye enlaces al artículo por no haberlo encontrado. Me sugiere que busque… en mi propia página web divulgativa, la repito aquí.. Decido darle una ayudita].
YO: Creo que hay una copia del artículo que busco en la web de la Universidad de Granada
Copilot: [vuelve a darme la turra con la misma descripción de siempre sobre la dispersión de Mie. No me da el enlace que quiero. Me enfado un poco]
YO: Por favor, deja de explicarme lo que es la dispersión de Mie. Estoy buscando una copia del artículo de 1908 que hay online en una web de la Universidad de Granada
Copilot: [me da tres referencias online, ninguna me sirve]
YO: Gracias por la referencia primera, pero ahí no hay enlace ni copia del artículo de 1908. Lo sé porque YO SOY Arturo Quirantes, el autor del artículo de divulgación
Copilot: [reconoce con pesar que no tiene acceso al artículo, a pesar de que yo sí tengo una copia online]
YO: Hay una copia online del artículo de Mie en español, inglés y alemán idiomas; están en la web https://www.ugr.es/~aquiran/mie.htm [se lo dejo a huevo, amigos]
Mientras Copilot contesta, me llaman por teléfono. Cuando vuelvo a chat, me encuentro con la página por defecto de bing, el chat ha desaparecido. Intento la opción Nuevo Tema. Copilot no responde. Tengo que cerrar la página y volver a abrirla.
YO: Necesito la referencia del artículo original sobre dispersión de luz de Mie de 1908.
Copilot: [vuelve a la turra de siempre con lo de la dispersión de Mie]
YO: Necesito una copia online, en español o alemán, de ese artículo de 1908 de Mie
Copilot: [enésima explicación de la dispersión de Mie, no encuentra la copia online. Vuelve a incluirme mi artículo de blog divulgativo como fuente primaria]
YO: Hay una copia online del artículo de Mie en español, inglés y alemán idiomas; están en la web https://www.ugr.es/~aquiran/mie.htm
Copilot: [enésima+1 explicación. Me incluye un enlace al artículo original. Ese enlace es simplemente translate.google.com]
YO: Eso es sólo un enlace a translate.google.com. Ahí no está el enlace al artículo de Mie de 1908 que pido. Y por favor, deja de darme la misma explicación de la dispersión de Mie. Me la incluyes una y otra vez, y ni siquiera la he pedido.
Copilot: [no puede darme el enlace, pero vuelve a darme la misma explicación. Le encanta la turra de Mie. Insisto.]
YO: Eso es sólo un enlace a translate.google.com. Ahí no está el enlace al artículo de Mie de 1908 que pido. Y por favor, deja de darme la misma explicación de la dispersión de Mie. Me la incluyes una y otra vez, y ni siquiera la he pedido.
Lo que sigue ahora puede que os resulte cómico, pero a mí me dejó de piedra. Resulta que Copilot me vuelve a dar la explicación de siempre (estoy empezando a hartarme del condenado Mie y su dispersión), me vuelve a decir que no encuentra la copia que busco, y me incluye las siguientes referencias. Atentos:
– Un BOE con la Ley de 23 de julio de 1908 sobre nulidad de los contratos de préstamos usurarios.
– Dos página jurídica sobre el artículo 1908 del Código Civil
– Tres webs sobre el uso de artículos definidos en alemán.
¿Es una broma? ¿Es una puta broma? Estoy ya hasta la coronilla de todo esto y me encaro con Copilot:
YO: ¿Qué tiene que ver el Código Civil o una ley de 1908 con la dispersión de Mie? ¿Me estás tomando el pelo?
Y aquí viene su respuesta:
Copilot: Mis disculpas por los errores anteriores. Parece que cometí un error en mis respuestas. Aprecio tu paciencia. Me retiro de esta conversación. 🙏
¿En serio? ¿EN SERIO?
Me quedé de piedra. Mi experiencia con el anterior ChatGPT no fue buena, y lo describí como “un mayordomo muy respetuoso, servicial, pero no sabe distinguir la botella de coñac de la de pacharán”. Pero esto es… no sé. Es como tuviese esquizofrenia, qué sé yo, en este punto necesito un psiquiatra sólo para describir su conducta. Me repite la misma turra explicativa cada vez que uso las palabras “artículo de Mie”, me da la impresión de que no hay copia del artículo original.
Lo increíble es que, si te metes en Google, encuentras la información de forma rápida. Si buscas “Mie 1908”, la primera entrada es una traducción al inglés en pdf; la segunda entrada es el artículo original de Annalen der Physik, en acceso libre; y la cuarta es mi propia copya del artículo original en alemán, transcrito en formato Word.
He estado jugando un poco con Google y creo entender al menos parte de lo que pasó. La obsesión de Copilot con mi artículo divulgativo (este, repito) puede provenir de que es la primera entrada en la búsqueda “artículo Mie 1908” en Google. Si, por el contrario, cambias el orden y buscas “artículo 1908 Mie” te empieza a sacar todas esas entradas del código civil, leyes de 1908 y demás. En ese caso Mie no aparece como palabra, pero sí insertada en palabras como conocimiento o establecimiento.
Vale, Copilot no es un esquizoide, pero ¿realmente no sabe hacerlo mejor? Parece que se haya limitado a hacer una búsqueda en Google, y lo hacía peor que un adolescente que nunca hubiese oído hablar de las búsquedas booleanas. Y por cierto, he hablado de Google, pero el buscador Bing es igual de malo en esta búsqueda. De hecho es aún peor, porque en Bing no aparece nada sobre Gustav Mie cuando busco “artículo Mie 1908”. A ver si el bicho de IAG de Microsoft al final resulta que busca sus resultados en la competencia. Sería algo de lo más irónico.
No puedo ocultar mi decepción. Enormeouse decepción, que diría Forges. A ver, no me esperaba a HAL 9000 dándome información certera desde el primer segundo, pero al menos esperaba cierto nivel. Se supone que Copilot, con ChatGPT4, funciona mucho mejor que su primo gratuito, que puedes meterle documentos, obtener imágenes, la Biblia en pasta; y al final resulta que se comporta peor que un mono borracho con problemas de personalidad. Para una herramienta que le ha costado una pasta a mi Universidad, o más bien, que Microsoft está usando para seguir atando a mi Universidad con Office 365, me parece algo totalmente inadmisible.
¿Se resolvería el problema si permitiésemos a Copilot compartir nuestros datos con el exterior? Lo dudo mucho. Las búsquedas malas en Google son un fallo de primero de algoritmo, la repetición de la misma explicación hasta la extenuación es un fallo de Copilot. Ah, todo mal.
Y encima, sin DALL-E.
Hasta aquí mi experiencia con Copilot en la esfera científica. Pero por supuesto, no podía dejarlo aquí. Si a ChatGPT le puse preguntas de examen, a Copilot no le espera menos. Lo dejo para el próximo post. Sólo adelantaré esto: no os vais a aburrir. Saludos.