manzana Es tener tu pastel de IA generativa y comértelo también. Apple Intelligence, que se reveló hoy en Conferencia mundial de desarrolladores 2024es en gran medida producto de modelos generativos locales de diferentes tamaños, pero incluso la potencia del chip A17 Pro no siempre es suficiente para manejar todas sus consultas principales.
A veces, Apple tiene que aventurarse a la nube. No cualquier nube, claro está, sino su propia nube informática donde sus datos están protegidos de maneras que, según Apple, pueden no existir en otros sistemas de IA generativa basados en la nube.
En un mensaje-WWDC Sesión de inmersión clave de 2024 El vicepresidente senior de ingeniería de software de Apple, Craig Federighi, y el vicepresidente senior de aprendizaje automático y estrategia de inteligencia artificial de Apple, John Gianandrea, explican exactamente cómo funciona la inteligencia de Apple y los sistemas que la respaldarán, de esta manera. El nuevo Siridecidirá cuándo guarda sus consultas en el dispositivo, cuándo se conecta a la nube informática privada de Apple y cómo Apple Intelligence decide qué compartir con esa nube.
“Aquí estamos en las primeras rondas”, dijo Federighi mientras explicaba el viaje de la IA, los desafíos que Apple ha enfrentado, cómo los resolvió y el camino por recorrer.
Lo que Apple está haciendo aquí no es trivial, y se puede decir que Apple cavó el hoyo en el que se encuentra. Apple Intelligence es esencialmente una serie de modelos generativos de IA de diferentes tamaños que ven lo más profundo de tu iPhone para conocerte. Conocerlo significa que pueden ayudarlo de maneras que otros modelos LLM y sistemas de IA generativa quizás no puedan. Es como cuando tu pareja o tus padres pueden consolarte porque saben todo sobre ti, mientras que un extraño sólo puede adivinar lo que podría consolarte pero también es probable que se equivoque. Conocerte a ti y a todos los datos de tu teléfono es la mayor fortaleza y la posible debilidad de la inteligencia de Apple, especialmente cuando se trata de privacidad.
Federighi explicó que Apple creó una solución de dos partes para mitigar este problema y evitar un desastre.
En primer lugar, la inteligencia integrada decide qué partes de sus datos son necesarias para obtener la respuesta correcta. Luego envía solo esos datos (cifrados y anonimizados) a una nube informática privada.
La segunda parte de la solución es cómo se construye la nube y cómo gestiona los datos. Esta es una nube que se ejecuta en Apple Silicon eficiente pero no tiene almacenamiento permanente. Los investigadores de seguridad tienen acceso al servidor pero no a sus datos para realizar auditorías de privacidad. El iPhone generalmente no envía estos datos a un servidor no verificado. Federighi lo comparó con las claves y tokens que se encuentran en los servidores de criptomonedas.
“Nadie, ni Apple ni nadie más, tendrá acceso a sus datos”, añadió Federighi.
Para ser claros, los datos de tu dispositivo son el centro de lo que Apple está haciendo con Apple Intelligence y el nuevo Siri. “Es una comprensión profunda de lo que hay en su dispositivo”, y esa base de conocimientos “sólo se enriquecerá con el tiempo”, dijo Giannandrea.
También obtuvimos información sobre cómo el índice semántico de Siri, que puede analizar datos en el teléfono, incluida la metainformación en fotos y videos, se potenciará cuando se combine con los modelos Apple Intelligence. Todo esto ayuda a entender a qué te refieres, dijo Federighi.
Apple lleva años trabajando en la indexación semántica. “Es realmente una historia de cómo construimos durante muchos años una capacidad realmente poderosa en el dispositivo”.
La pareja también explicó qué modelos usar y cuándo. Resulta que los lugareños, a menos que lo pidas, por ejemplo, ChatGPTtodo de Apple.
“Es importante reiterar que la inteligencia de Apple y las experiencias de las que estamos hablando se basan en los modelos que Apple ha creado”, añadió Federighi.
Como es el caso, Apple entrenó estos modelos con datos. Algunos provienen de la web pública (según el proyecto de búsqueda web en curso de Apple), aunque Giannandrea dijo que los editores pueden optar por no incluir sus datos. Apple también ha licenciado datos de archivos de noticias e incluso ha aplicado algunos datos internos a su modelo de publicación.
El dúo también confirmó que Apple Intelligence solo funcionará en iPhones con el chip A17 Pro. Como una forma de explicarlo, “los modelos básicos requieren una gran cantidad de cálculos”, dijo Gianandrea. Federighi añadió que el último motor neuronal del A17 Pro es “dos veces más potente que la generación anterior” y que tiene una arquitectura avanzada para soportar la IA de Apple. Todo esto probablemente será conveniente para los propietarios del iPhone 15 (A16 Bionic) y del iPhone 14 (Pro y estándar).
Respecto a cómo funciona Apple Intelligence con modelos de terceros, Federighi señaló que algunos de ellos tienen experiencia que quizás no encuentres en sus modelos, como responder a la pregunta: “¿Qué puedo hacer con estos componentes?” Luego Vidigi añadió algo que podría haber puesto sin darse cuenta. AbiertoAIPlataforma bajo una luz involuntaria: “Incluso las alucinaciones son útiles; “Y terminas comiendo una comida rara”.