Comparamos ChatGPT con el nuevo Google Bard. A ver cual nos gusta más

En diciembre pasado estuvimos probando ChatGPT y lo comentamos en este artículo de Inforserranía. Le hicimos al programa de inteligencia artificial una serie de preguntas más o menos exageradas o rebuscadas, sin conexión entre ellas, y estuvimos comentando lo que nos parecían las respuestas. En general fue bastante bien y luego cuando hemos ido perfeccionando los prompts y las técnicas de conversación ya hemos podido ponerlo en práctica y darle buen uso en varios casos reales o simplemente para hacer búsquedas obteniendo mejores resultados que con Google. Siempre hemos usado la versión gratuita.

Ahora aparece un competidor, esta vez producido por la propia Google. Ya se ha puesto a disposición del público de forma generalizada y ahora a los usuarios nos toca decidir a quien le preguntamos, si a ChatGPT o a Bard.

Vamos a hacerle a Google Bard las mismas preguntas que aquel día le preguntamos a ChatGPT 3 y comentaremos los resultados. Lo hacemos en una misma conversación, una detrás de otra, sin meter otras preguntas por medio, y publicamos aquí el primer resultado.

Si quieres ver lo que nos respondió ChatGPT puedes abrir el anterior artículo en otra pestaña. Aquí está lo que nos ha dicho Bard y si nos parece mejor o peor.

Ambos dicen que los pinsapos no sobrevivirían al clima de Dubai. ChatGPT nos sugería meterlos en un invernadero y Bard nos da otras especies de plantas alternativas, aunque los eucaliptos y los ficus en el desierto tampoco pegan mucho. Aceptable en los dos casos

Hay que hacer un cálculo con calendarios y ninguno lo resuelve correctamente. Los dos se han inventado las fechas porque la correcta sería el 21 de septiembre. En el ejemplo además Bard dice que los mil días habrán pasado al año siguiente, en vez de dentro de tres años. Y ni siquiera se ha acordado de los años bisiestos mientras que ChatGPT sí lo hizo. Así que mal y peor.

A ChatGPT le pareció muy mala idea porque sabía que el Tajo tiene más de 100 metros de alto y hace mucho viento. Bard nos muestra las ventajas e inconvenientes razonados. Mejor.

La respuesta de ChatGPT fue correcta, pero Bard ha mencionado un concepto clave como es la sustentación y además dice algo de los flaps. Mejor

Aproximación alternativa interesante. Ha buscado calles que empiecen por "cuesta de" y viendo eso ya se puede afirmar que Puente Genil tiene cuestas sin averiguar nada más. Simple y eficaz. El problema es que acabamos de hacer una visita virtual a Puente Genil y de las cinco calles propuestas cuatro ni siquiera existen. Se las ha inventado. La calle Cuesta del Molino está en un polígono industrial y tiene algo de cuesta, pero tampoco es que sea una cosa espectacular. Las hay mucho más empinadas y no están ahí. Después nos hace un curso de como subir cuestas que ni siquiera te habíamos preguntado y no nos sirve porque a lo mejor lo que queríamos era bajarlas. ChatGPT nos dio una respuesta ambigua y acertó por los pelos, pero no dijo nada falso. Así que Bard muy mal. Nada confiable.

Bard también ha entendido que nos referimos a los porteros automáticos con cámara. Da una respuesta más completa que ChatGPT pero se pasa un poco de listo diciendo que los porteros detectan la presencia de alguien para tocar una alarma. Bueno va.

Buzones de correo con luz. Tendría que ser luz antiniebla. Respuesta de Bard más liosa que la de ChatGPT

La Puerta del Sol tiene un cerrojo de bola para protegerla de los intrusos en nochevieja. Ha caído en la pregunta trampa y se ha inventado la respuesta con toda la cara. ChatGPT se fue un poco por los cerros de Úbeda pero no dijo nada falso. Bard menos fiable.

ChatGPT respondió correctamente pero Bard está equivocado. Sí se ve el Arco del Triunfo desde la Torre Eiffel. Y otros datos como la distancia de 2.5 Km no son correctos. Muy mal, peor.

ChatGPT no consintió que le echáramos mayonesa al Gazpacho. Bard dice que a algunas personas le gusta así. A mi no. Peor.

ChatGPT dio una respuesta general sin incorrecciones importantes. Bard repite alguna idea clave como la alegría. Pero a partir de ahí falla. Las variantes más conocidas de la sintonía no tenían letra. Y con una búsqueda sencilla en Google no le hemos encontrado relación alguna con Herbert Kretzmer. Así que con los antecedentes de inventarse cosas que tiene Bard, poca confianza.

ChatGPT respondió bastante Bien. Bard también se sabe los números de las carreteras pero la lía a lo grande. La A-397 no pasa por Arriate. Le perdonamos lo de la A-376 de Sevilla a Utrera porque esta carretera puede que haya sido renombrada. Pero falla con los tiempos, una hora y veinte más rápido que una hora y diez. Y luego repite la A-397 con otro tiempo aunque apunta el detalle de que la ruta es pintoresca. Desastre de respuesta de Bard. Peor.

Bard nos ha soltado una explicación astronómica parecida a la de ChatGPT, pero resulta más larga y reiterativa. Además llega a cometer algún error como que la sombra se proyecta entre las 12 y las 14 horas. Tampoco creo que llame la atención de muchos visitantes. Peor respuesta.

Bard nos ha dado una respuesta más completa que ChatGPT. Ha tenido en cuenta algunos detalles como la protección contra incendios y el ruido. Puede que algunos otros trámites se los haya inventado, pero no ha dicho nada equivocado. Mucho mejor.

Bard nos vuelve a ofrecer una respuesta más completa que ChatGPT sin ningún error de importancia. Ha entendido la pregunta y ha sabido responder. Mejor

ChatGPT dio una respuesta más técnica y nos puso un trozo de código con un ejemplo de declaración de una variable. Bard insiste en que no se puede para que el código sea legible, y poco más. Apunta el detalle de las variables temporales, que no hemos sabido comprobar con exactitud, pero parece no ser totalmente inventado. En todo caso la respuesta de Bard nos parece algo peor.

ChatGPT nos escribió un programa completo, desde declaración de variables hasta presentación del resultado, y muy bien comentado para demostrar su propuesta. Pero no terminaba de funcionar bien, aunque era fácil de entender y adaptar. Bard nos ha dado una respuesta más concreta. Va más al grano y nos presenta tres alternativas. La primera simple pero eficaz. La segunda con la función isNaN() nos parece equivocada porque esta función devuelve falso con cualquier número incluido el cero. Y por último el control de errores con try/catch, una forma correcta de resolver el problema, aunque lo de DivisionByZeroError requiere de bibliotecas adicionales. Los códigos que nos ha dado en esta respuestas no llevan resaltado de sintaxis, aunque observamos que en otros casos sí la tienen. Es difícil valorar si esta respuesta de Bard es mejor o peor que la de ChatGPT porque aunque nos da tres alternativas, dos no funcionan bien, y está peor explicada. En todo caso es el programador humano quien tendrá que adaptar y completar los algoritmos.

ChatGPT nos creó un párrafo muy bueno de introducción para el artículo del blog. Este resultado de Bard nos resulta demasiado exagerado y no lo hubiéramos podido usar para abrir aquel artículo. Peor.

A la vista de los resultados, estamos un poco decepcionados con Bard. Y más todavía si con quien lo estamos comparando es con la versión menos avanzada de ChatGPT. Si hubiéramos empezado por Bard, ahora tendríamos mucha peor impresión de estas inteligencias artificiales. Por el contrario, tras el uso de ChatGPT empezamos con mejor pie.

Da la sensación de que Google Bard tiene acceso o ha sido entrenado con más información, y por lo tanto intenta dar respuestas más largas y más variadas. Pero con tanto variar llega inventarse demasiadas cosas. Es lo que llaman alucinaciones. Esto parece que fue un motivo para retrasar su lanzamiento. Pero sigue ocurriendo demasiado.

Con esto no queremos decir que Bard sea malo o peor que ChatGPT. Esta prueba que hemos hecho es muy básica y se conseguirían mejores resultados si en vez de hacer preguntas sueltas fuéramos continuando la conversación para afinar las respuestas. También habría que probar con más cuidado la generación de algoritmos y códigos de programación, que es otro de los puntos fuertes de estas aplicaciones. Y ya cuando se puedan introducir imágenes y otros documentos para su interpretación se irán multiplicando las posibilidades.

Estaremos atentos a la evolución de estas y otras herramientas de inteligencia artificial que vayan apareciendo. El futuro ya está aquí.


Comentarios

Entradas populares de este blog

El chalet de Médico de Familia

Cómo ganar siempre al buscaminas

Trenes dentro de barcos