Tecnología
Tendencia

ReALM: La IA de Apple que supera a GPT-4 y transforma el futuro de Siri

Sumérgete en la nueva era de la IA conversacional con Apple

En un importante avance en el campo de la inteligencia artificial, Apple ha presentado ReALM (Reference Resolution As Language Modeling), el innovador modelo de la IA de Apple que promete transformar la forma en que los asistentes de voz interactúan con los usuarios.

ReALM es la IA de Apple diseñada para mejorar significativamente la capacidad de los asistentes de voz para comprender y procesar peticiones ambiguas, incluso aquellas que se basan en contextos visuales o no conversacionales.

¿Qué es ReALM?

ReALM es un innovador modelo de inteligencia artificial (IA) desarrollado por Apple con el objetivo de revolucionar la forma en que los asistentes de voz interactúan con los usuarios.

A diferencia de los asistentes de voz tradicionales, ReALM no solo se limita a comprender el lenguaje hablado, sino que también puede interpretar el contexto visual para ofrecer una experiencia de usuario más intuitiva y eficiente.

¿Cuál es el objetivo de ReALM la IA de Apple?

Cómo funciona ReALM

Cómo funciona ReALM

El objetivo principal de ReALM es dotar a los asistentes de voz, como Siri, de mayor información y contexto para que puedan interpretar mejor las solicitudes de los usuarios, incluso cuando estas son imprecisas o incompletas.

¿Cómo funciona?

Para lograrlo, ReALM utiliza grandes modelos de lenguaje que han sido entrenados para resolver referencias ambiguas. El sistema es capaz de analizar el contenido de la pantalla de un dispositivo, incluyendo elementos de fondo y aspectos no conversacionales como lugares, objetos, eventos y conceptos.

ReALM identifica la ubicación de estos elementos y genera una representación textual natural basada en el diseño visual. Esta información procesada se integra con los datos existentes de los asistentes de voz, permitiéndoles comprender mejor las solicitudes poco claras y ejecutar tareas específicas de manera más precisa y eficiente.

Ejemplos de interacción con Siri IA

IA-Apple-Siri-ReALM
Siri ReALM IA Apple

Navegar por mapas y realizar acciones con ReALM

Si estás en una ciudad desconocida y quieres encontrar un restaurante italiano cerca de ti. Con ReALM, podrías simplemente decirle a Siri: “Muéstrame restaurantes italianos cerca de mí“. ReALM analizaría el contenido de tu pantalla, incluyendo tu ubicación actual y los lugares cercanos, y te presentaría una lista de restaurantes italianos con sus datos de contacto. Si te interesa el primer restaurante de la lista puedes indicarle a Siri: “Llama a la primera opción” y Siri, sin necesidad de más indicaciones, comprendería la referencia y realizaría la llamada al restaurante en cuestión.

Como ves, ReALM va más allá de la comprensión del lenguaje hablado. Si te encuentras en un listado de opciones y quieres realizar una acción con una de ellas, como llamar o enviar un mensaje, podrías decir: “Haz una llamada al restaurante de abajo“. ReALM, comprendería el contexto visual, y sabrá inmediatamente que te refieres a la segunda alternativa del listado y ejecutaría la acción solicitada.

Comprensión del contexto visual para realizar tareas

ReALM también puede interpretar el contexto visual para realizar tareas. Por ejemplo, si estás leyendo un artículo de noticias en tu iPad y quieres saber más sobre un tema mencionado, podrías simplemente decir: “Dime más sobre esto“. La tecnología IA de Apple en ReALM sabrá identificar el tema relevante y te proporcionaría información adicional, como enlaces a artículos relacionados o definiciones de términos clave.

ReALM vs GPT-4: La IA de Apple supera a GPT-4

Si bien la técnica de entrenar grandes modelos de lenguaje para procesar referencias ambiguas en función de elementos en pantalla no es exclusiva de ReALM, la Apple se jacta de haber desarrollado un enfoque superior. El método de codificación textual de ReALM es la IA de Apple que se presenta como la clave para superar a su principal competidor, GPT-4.

Los ingenieros de Apple afirman que ReALM ha logrado mejoras significativas en comparación con sistemas similares, obteniendo ganancias absolutas de más del 5% en referencias en pantalla incluso con su modelo más pequeño. En sus pruebas, los modelos más grandes de ReALM superaron sustancialmente a GPT-4 en diversas tareas de comprensión del lenguaje.

Esta superioridad se atribuye a la capacidad de ReALM para comprender mejor el contexto visual y generar representaciones textuales más precisas a partir de los elementos en pantalla. Esto permite a ReALM interpretar mejor las solicitudes de los usuarios, incluso cuando son ambiguas o incompletas, y ofrecer respuestas más relevantes y útiles.

La IA de Apple con un paso adelante y limitaciones por superar

A pesar de los avances significativos que representa ReALM como la IA de Apple, los investigadores reconocen las limitaciones que todavía presenta el análisis automatizado de elementos en pantalla. De hecho, aún es necesario contar con la integración de mecanismos de visión por computadora y técnicas multimodales para el procesamiento de interacciones más complejas.

Sin embargo, la Inteligencia Artificial de Apple mantiene una apuesta firme por el potencial de ReALM. La empresa ha lanzado en los últimos meses diversos algoritmos basados en esta tecnología, con una estructura similar que facilita su implementación en dispositivos móviles. Esta estrategia refleja la confianza de Apple en el futuro de ReALM y su capacidad para transformar la forma en que interactuamos con la tecnología.

Si bien las limitaciones actuales de ReALM deben ser abordadas para alcanzar su máximo potencial, la empresa demuestra un compromiso claro con el desarrollo y la implementación de esta tecnología innovadora. Es probable que en el futuro veamos avances significativos en la capacidad de ReALM para procesar referencias complejas – y de esta forma– la IA de Apple pueda ofrecer una experiencia de usuario aún más intuitiva y eficiente.

Apple IA acelera el desarrollo

IA Apple
IA de Apple

Apple está apostando por el desarrollo de sistemas de IA que se ejecutan de manera local en los dispositivos, lo que significa que el procesamiento de datos se realiza en el propio dispositivo del usuario en lugar de depender completamente de la infraestructura en la nube. Esta estrategia ofrece varias ventajas, como una mayor privacidad y seguridad de los datos, menor latencia y una experiencia de usuario más fluida.

Siri y otros servicios móviles con IA de Appel

Los analistas y las declaraciones de Tim Cook, CEO de Apple, sugieren que estos avances en IA local de Apple están preparando el terreno para una gran actualización de Siri y otros servicios móviles de la empresa. Se espera que la integración de IA generativa y el procesamiento local de datos doten a Siri de nuevas capacidades y mejoren significativamente la experiencia del usuario.

Alianzas estratégicas con IA de Apple

Apple también está explorando posibles alianzas con empresas que poseen sistemas de IA más sólidos. De hecho, se conoce por fuentes externas que ya existen conversaciones con OpenAI y con Gemini de Google para obtener la licencia de su modelo. Estas alianzas estratégicas podrían acelerar el desarrollo de las capacidades de IA de Apple y permitirle ofrecer funciones aún más innovadoras y competitivas a sus usuarios.

Relacionado: IA en la vida cotidiana

En conjunto, estos avances indican que Apple está acelerando su ritmo en el desarrollo de sistemas de IA. La combinación de IA local, nuevas funciones generativas y posibles alianzas estratégicas posiciona a la empresa para liderar el futuro de la IA en dispositivos móviles, ofreciendo una experiencia de usuario más inteligente, eficiente y segura.

Por lo tanto, si eres usuario Apple, no puedes perderte las noticias de los avances en materia de Inteligencia Artificial que el gigante tecnológico de Apple está desarrollando para ti. Los rumores afirman que ReALM -la IA de Apple- será presentada el junio oficialmente durante laWWDC 2024. ¡Aquí te mantenemos al tanto!

Botón volver arriba