Portada » Diez hitos de la Inteligencia Artificial en la historia de Google

Diez hitos de la Inteligencia Artificial en la historia de Google

La compañía propietaria del famoso buscador celebró recientemente su aniversario 25, una ocasión apropiada para repasar las contribuciones de Google y su famosos laboratorio de innovación, al desarrollo reciente de la IA.

Por Alvaro Montes
0 comentario

Fue el equipo de investigadores de Google el que, en el año 2017, dio con la tecla para crear modelos de lenguajes poderosos, capaces de sostener comunicaciones que parecen humanas. De allí nació Bard y Chat GPT. Con información suministrada por la compañía, presentamos los momentos claves de las innovaciones de Google apoyadas en Inteligencia Artificial.

2001: El aprendizaje automático ayuda a los usuarios de la Búsqueda de Google a corregir su ortografía

El cofundador de Google, Larry Page, alguna vez dijo: «El motor de búsqueda perfecto debe entender exactamente lo que quieres decir y entregarte exactamente lo que necesitas». Google dio un paso en dirección cuando implemento versión simple de aprendizaje automático para sugerir mejoras ortográficas en las búsquedas web.

2006: Se lanza Google Translate

Cinco años después, apareció Google Translate , que usa el aprendizaje automático para traducir idiomas automáticamente. Comenzamos con traducciones de árabe a inglés e inglés a árabe, pero hoy Google Translate admite 133 idiomas hablados por millones de personas alrededor del mundo. Esta tecnología puede traducir texto, imágenes o incluso una conversación en tiempo real.

2015: TensorFlow democratiza la IA

La introducción de TensorFlow, un nuevo marco de aprendizaje automático de código abierto, hizo que la IA fuera más accesible, escalable y eficiente. También ayudó a acelerar el ritmo de la investigación y el desarrollo de la IA alrededor del mundo. TensorFlow es ahora uno de los marcos de aprendizaje automático más populares y se ha utilizado para desarrollar una amplia gama de aplicaciones de IA, desde el reconocimiento de imágenes hasta el procesamiento del lenguaje natural y la traducción automática.

2016: AlphaGo derrota al campeón mundial de Go

Como parte del Google DeepMind Challenge Match, más de 200 millones de personas vieron en línea cómo AlphaGo se convirtió en el primer programa de IA en derrotar a un campeón mundial humano en Go, un complejo juego de mesa que antes se consideraba fuera del alcance de las máquinas. Esta victoria histórica demostró el potencial del aprendizaje profundo para resolver problemas complejos que antes se consideraban imposibles para las computadoras.

2016: Los TPUs permiten una implementación de IA más rápida y eficiente

Las unidades de procesamiento tensorial, o TPU, son chips de silicio diseñados a la medida que inventamos específicamente para el aprendizaje automático y optimizados para TensorFlow. Pueden entrenar y ejecutar modelos de IA mucho más rápido que los chips tradicionales, lo que los hace ideales para aplicaciones de IA a gran escala. La versión v5e, anunciada en agosto, es el TPU en la nube más rentable, versátil y escalable hasta la fecha.  

2017: Google Research presenta el Transformer

El artículo de investigación de Google Research «Attention Is All You Need» presentó el Transformer, una nueva arquitectura de red neuronal que ayudó a la comprensión del lenguaje. Antes de Transformer, las máquinas no eran muy buenas para entender el significado de oraciones largas: no podían ver las relaciones entre palabras que estaban muy separadas. Transformer mejoró enormemente esto y se ha convertido en la base de los sistemas de inteligencia artificial generativa y comprensión del lenguaje más impresionantes de la actualidad. Transformer ha revolucionado lo que significa para las máquinas traducir, resumir textos, responder preguntas e incluso generar imágenes y la robótica.

2019: BERT ayuda a la Búsqueda a comprender mejor las consultas

La investigación sobre Transformers condujo a la introducción del «Bidirectional Encoder Representations from Transformers» (Representaciones bidireccionales de codificadores a partir de Transformers), o BERT para abreviar, que ayudó a la Búsqueda a comprender las consultas de los usuarios mejor que nunca. En lugar de tratar de entender las palabras individualmente, nuestros algoritmos BERT ayudaron a Google a entender las palabras en contexto. Esto condujo a una gran mejora de la calidad en la Búsqueda y facilitó que las personas hicieran preguntas como lo harían naturalmente, en lugar de encadenar palabras clave.

2020: AlphaFold resuelve el problema del plegamiento de proteínas

En 2020, DeepMind dio un salto en el campo de la IA con su sistema, AlphaFold, que fue reconocido como una solución al «problema del plegamiento de proteínas». Las proteínas son los componentes básicos de la vida, y la forma en que una proteína se pliega determina su función; una proteína mal plegada podría causar enfermedades. Durante 50 años, los científicos habían estado tratando de predecir cómo se plegaría una proteína para ayudar a comprender y tratar enfermedades. AlphaFold hizo exactamente eso. Luego, en 2022, Google compartió 200 millones de estructuras de proteínas de AlphaFold, que cubren casi todos los organismos del planeta de los que se ha secuenciado su genoma, libremente con la comunidad científica a través de la base de datos de estructuras de proteínas de AlphaFold. Más de 1 millón de investigadores ya lo han utilizado para trabajar en una diversidad de cosas, desde acelerar nuevas vacunas contra la malaria en un tiempo récord y avanzar en el descubrimiento de fármacos contra el cáncer, hasta desarrollar enzimas que se alimentan de plástico.

2023: Bard te ayuda a colaborar con la IA generativa

LaMDA, un modelo de lenguaje de gran tamaño conversacional lanzado por Google Research en 2021, allanó el camino para muchos sistemas de IA generativa que han capturado la imaginación del mundo, incluido Bard. Lanzado en marzo, Bard ahora está disponible en la mayor parte del mundo y en más de 40 idiomas, por lo que más personas que nunca pueden usarlo para aumentar la productividad, acelerar las ideas y alimentar la curiosidad. Google ha combinado el modelo más inteligente y capaz de Bard con los servicios de Google que usas todos los días, como Gmail, Docs, Drive, Vuelos/Hoteles, Maps y YouTube, para que te sea aún más útil con tareas como la planificación de viajes, la verificación de respuestas y el resumen de correos electrónicos o documentos.

2023: PaLM 2 avanza el futuro de la IA

En mayo de este año, la compañía presentó PaLM 2, un modelo de lenguaje de gran tamaño que ha mejorado las capacidades multilingües, de razonamiento y de codificación. Es más capaz, más rápido y más eficiente que sus predecesores, y ya está impulsando más de 25 productos y funciones de Google, incluidas Bard, funciones de IA generativa en Gmail y Workspace, y SGE, nuestro experimento para integrar profundamente la IA generativa en la Búsqueda de Google.

Son solo algunas de las contribuciones de Google Research al desarrollo reciente de la IA, junto con los Principios de IA que la empresa redactó para guiar el trabajo de sus equipos de innovación.

Dejar un comentario

Una iniciativa de

En alianza con