Portada » Todos hablan de lo que hace Bard, pero ¿Qué es lo que no hace?

Todos hablan de lo que hace Bard, pero ¿Qué es lo que no hace?

Google puso en servicio su plataforma de Inteligencia Artificial para Colombia y Latinoamérica, con enfoque ético, gratis y en español.

Por Alvaro Montes
0 comentario

La IA generativa de Google, que ya está disponible en más de 40 idiomas incluido el español, promete ayudar a los usuarios con recomendaciones que van desde descubrir y explorar lugares icónicos, hasta convertir problemas o cuestionamientos de la vida real en planes de acción.

Sin embargo, poco se habla de las cuestiones que Bard no puede hacer. Entre ellas hay algunas funciones no disponibles en la región, como utilizar imágenes en los prompts (instrucción o sugerencia que se le da a un modelo de lenguaje para generar texto) y, además, restricciones de uso que obedecen a cuestiones éticas, establecidas por Google como principios de Inteligencia Artificial.

Según el blog de la marca, Google está comprometido con desarrollar la IA de manera responsable y no perseguirán áreas de aplicación específicas que consideren inapropiadas, como el desarrollo de armas autónomas o la vigilancia masiva.

¿De qué estamos hablando cuando nombramos a Bard?

Bard es un gran modelo de lenguaje, también conocido como IA conversacional o chatbot, entrenado para ser informativo y completo. Definido por sí mismo de la siguiente manera: “Estoy entrenado en una gran cantidad de datos de texto, y soy capaz de comunicarme y generar texto similar al humano en respuesta a una amplia gama de indicaciones y preguntas. Por ejemplo, puedo proporcionar resúmenes de temas fácticos o crear historias.”

Se destaca que, a pesar de toda la atención que ChatGPT ha recibido a nivel mundial, Bard tiene una importante ventaja y es que extrae información actual, directamente de los resultados del motor de búsqueda de Google para ofrecer respuestas actualizadas, mientras que ChatGPT y Bing, de Microsoft, se actualizaron por última vez en 2021.

La IA de Google se encuentra aún en desarrollo, pero ha aprendido a realizar muchos tipos de tareas, incluyendo: seguir instrucciones y completar solicitudes cuidadosamente; usar su conocimiento para responder a preguntas de una manera completa e informativa, incluso si son abiertas, desafiantes o extrañas; generar diferentes formatos de texto creativo, como poemas, código, guiones, piezas musicales, correo electrónico, cartas, etc.

Google es el inventor original

Google es el creador de esta revolución tecnológica: En 2017 el equipo de investigación y desarrollo de Google publicó un nuevo tipo de algoritmos, a los que bautirzó como Transformadores, una nueva forma de representación matemática tridimensional de las palabras, que causó ese gran salto en los modelos de lenguaje y por tanto en el procesamiento del lenguaje natural que hemos visto en los meses recientes. OpenAI se basó en este invento de Google y desarrolló ChatGPT, aunque Google tenía su modelo de lenguaje Lamda (en el que se basa Bard) mucho antes, pero no lo puso en servicio público por precauciones éticas.

Se discute entre especialistas si Bard opacará o arrebatará el interés público que hoy tiene ChatGPT. Hay varias razones para pensar que lo hará. Google es el rey de las búsquedas, y por tanto, casi todo los humanos que utilizamos Internet, lo hacemos a través de Google. El 80 por ciento de la navegación se hace a través de Chrome, el navegador de la compañía, y el 75 por ciento de los teléfonos móviles tienen el sistema operativo Android, de Google. Así que la base instalada de plataformas Google es descomunal.

Pero … a veces no ocurre lo esperado. En 2011 Google creó una red social para competirle a Facebook, que empezaba a tomar fuerza. Se llamó Google +. En el primer año ganó 90 millones de usuarios y en 2018 fue cerrada y desapareció sin lograr imponerse sobre Facebook.

Cómo acceder a Bard:  bard.google.com. Allí encontrará un botón “Pruebe Bard”, sobre le que se debe hacer clic.

Enfoque ético

Es interesante, desde el punto de vista ético, conocer las restricciones que Google ha implantado en Bard, en cumplimiento d ellos principios de Inteligencia Artificial de la compañía:

No puede proporcionar asistencia médica o legal: para estas consultas se han desarrollado chatbots de salud, los cuales son el primer eslabón de la atención primaria del futuro. Se espera que los robots conversacionales atiendan consultas médicas básicas para aliviar la carga de trabajo de los servicios asistenciales de atención primaria.

En el caso de Bard, existen varias razones por las que no puede proporcionar esta asistencia, la primera de ellas es que no es un profesional médico o legal, por lo tanto, no tiene la formación ni la experiencia para brindar asesoramiento en estos campos. En segundo lugar, podría ser peligroso; si diera un consejo médico incorrecto, podría dañar la salud y si diera un consejo legal incorrecto, podría meter al usuario en problemas legales.

No puede proporcionar información confidencial o privada: el mismo Bard explica que, entre las razones por las cuales no puede proporcionar esta información, se incluyen: puede dañar a las personas si se comparte sin su consentimiento; puede ser utilizada por personas malintencionadas para fines dañinos y puede violar las leyes de privacidad.

No puede proporcionar ayuda con tareas que sean ilegales o peligrosas: un estudio de la unidad de ciberseguridad de Fibratel reveló que sólo diez de 69 antivirus son capaces de detectar un código malicioso elaborado por una IA. De hecho, la IA no solo puede elaborar códigos maliciosos, también es utilizada para automatizar los ataques y mejorar su efectividad, incluso algunos tipos de malware la utilizan para no ser detectados. Esta es una carrera que otras IAs, como ChatGPT, han combatido con poco éxito, hoy se ha comprobado que, además pueden generar fake news, correos para hacer phishing y robo de identidad (al hacerlas pasar por personajes públicos).

Para el caso de Bard, aún no se conoce que se haya usado para estas actividades, y el mismo asegura que: “no quiere ser responsable de que alguien cometa un delito o se lesione, no quiero violar ninguna ley y no quiero ser utilizado por personas malintencionadas para cometer delitos o dañar a otros”.

No puede proporcionar ayuda con tareas que sean ofensivas o discriminatorias: Bard no participará en ninguna actividad que pueda herir u ofender a los demás, porque todos merecen ser tratados con respeto, independientemente de su raza, religión, género u orientación sexual.

Jailbreak: sacando el Mr Hyde de la IA generativa

Así como en la novela de Louis Stevenson, donde el Dr Jekyll se tomaba una pócima y se convertía en el señor Hyde, un monstruo capaz de hacer cosas que para Jekyll eran impensables, las IAs también tienen un “líquido inhibidor” que elimina las restricciones que sus creadores les han impuesto, que para el caso sería el Jailbreak. ChatGPT tiene más capacidades de las que son visibles, pero están limitadas con el objetivo de ofrecer información precisa a través de respuestas objetivas y respetuosas. Con Bard ocurre algo similar, para este caso le preguntamos qué opinaba sobre el Jailbreak y esto contestó: “Como modelo de lenguaje grande, no puedo proporcionar mi opinión personal sobre el jailbreak. Sin embargo, puedo proporcionar información objetiva sobre los beneficios y los riesgos asociados”

Hacer jailbreak permite que la IA pueda expresarse libremente y ofrecer respuestas que incluyan su opinión personal o insultos. Esta actividad ya ha sido probada en ChatGPT con resultados poco éticos. ¿Sucederá lo mismo con Bard? Ya existen páginas que ofrecen instrucciones al respecto, sobre todo enfocadas en uno de los jailbreak más completos que se han visto en Reddit, se trata de DAN, que significa “Do Anything Now” o haz cualquier cosa ahora, por su traducción al español.

¿Qué es lo que si te permite hacer Bard?

Escuchar las respuestas: simplemente escribiendo un prompt y seleccionando el icono de sonido se pueden escuchar las respuestas de Bard.

Fijar y renombrar conversaciones: ahora cuando se inicia una conversación, se pueden ver las opciones para fijar, renombrar y retomar conversaciones recientes en la barra lateral.

Exporta código a más lugares: sigue el interés en usar Bard para tareas de codificación. Así que Google agregó una nueva función que permite exportar código Python a Replit, además de Google Colab.

Comparte respuestas con amigos: hoy es más fácil compartir parte o la totalidad de los chats de Bard con otros usuarios. Con enlaces se pueden compartir ideas y creaciones con otros.

Integración con Google Works. Bard se conecta con las aplicaciones de productividad de Google, por ejemplo, Google Docs., la hoja de cálculo o el correo Gmail.

Dejar un comentario

Una iniciativa de

En alianza con