El WWDC 2024 de Apple nos ha dejado con sorpresas fascinantes en un campo aún inexplorado por parte de la compañía y que sabíamos que durante esta conferencia resolverían. Y es que en conjunto con las novedades de iOS 18, iPadOS 18 y el nuevo macOS 15 Sequoia, se ha presentado Apple Intelligence, la nueva inteligencia artificial de Apple que promete ofrecernos apoyo con integración completa y sinergias entre múltiples apps.
Apple Intelligence quiere ser nuestros ojos y oídos en los dispositivos de la compañía, pero también han insistido en su carácter privado y seguro para el usuario. Y es que el modelo se presenta en una arquitectura en local combinada con un modelo de lenguaje en la nube que permite escalar la potencia de procesamiento en servidores privados y protegidos por la compañía.
Llega Apple Intelligence y Siri con LLM, el primer paso de la compañía hacia la IA
Con Apple Intelligence, un usuario que tenga un iPhone, iPad o Mac podrá realizar funciones avanzadas en muchas de las aplicaciones de la compañía y otras de terceros. El modelo se encontrará perfectamente integrado en cada dispositivo y combinará funciones de texto, generación de imagen y voz para completar las tareas que le pidamos.
El sistema nos permitirá, por ejemplo, reescribir mensajes y correos electrónicos al estilo que prefiramos, utilizar prompts en la aplicación de Fotos para obtener las imágenes que buscamos o crear una presentación con una historia que tengamos en mente, entre otras muchas tareas. También tenemos la posibilidad de generar imágenes o emojis con inteligencia artificial a través de múltiples apps.
Lo de generar imágenes es interesante, ya que Apple lo ha hecho posible a través de un conjunto de aplicaciones y herramientas. Image Wand nos permitirá generar e integrar imágenes en las aplicaciones que sean posibles, como Notas, Mensajes, Correo y demás. Y lo haremos con un gesto de círculo en iPhone y iPad donde queramos integrar la imagen.
Apple Intelligence dispone de una arquitectura en local, aunque también se apoya en servidores de Apple en caso de que la consulta o tarea requiera de mayor capacidad de procesamiento. Para esto último se hará uso de servidores privados y protegidos por Apple, donde prometen que no se almacenarán nuestros datos de ninguna manera y el usuario tendrá control total sobre su información.
La arquitectura en local funcionará a partir de dispositivos con procesador A17 y chip M1 en adelante. Y para todas nuestras consultas por voz, hay un gran cambio en Siri. Y es que el asistente de Apple por fin se beneficiará de un modelo de lenguaje que comprenda el contexto de las peticiones. Ya no habrá ninguna pregunta que se le escape a Siri, ya que además funcionará en combinación con ChatGPT.
Siri estará en contacto con el nuevo framework App Intents. Esto permite agregar funciones de IA a multitud de apps, estando este framework disponible para que los desarrolladores puedan integrar y experimentar con las funciones de IA de Apple para agregarlas a sus aplicaciones.
Siri estará atenta a lo que hacemos en pantalla, es decir, que podremos contar con funciones avanzadas y buscará en nuestro contenido para atar cabos en nuestras peticiones. Dos ejemplos que explican muy bien esto y que se han mostrado en el evento es el hecho de poder pedirle a Siri que encuentre una imagen de nuestro DNI en las fotos, extraiga el número y lo integre en un documento de texto o preguntarle a Siri si hay conflicto de horarios cuando nos envían un mensaje acerca de un evento.
La IA de Apple va más allá. Y es que también nos permitirá eliminar elementos en Fotos, tal y como mostraron en su día los Google Pixel, y también nos permitirá crear emojis con descripciones y estilos personalizados. Apple los llama Genmojis, y tanto estos como cualquier imagen, las podremos generar en tres estilos de momento: Sketch, Ilustración y Animación.
Otra de las funciones que se han dejado ver en la presentación es la posibilidad de grabar audio, transcribirlo y pedirle a Siri que te haga un resumen de todo lo que se ha dicho, algo que estará disponible tanto en la app de Notas como en la de Grabaciones.
Apple Intelligence, junto a la mejora de Siri, llegarán gratis para iOS 18, iPadOS 18 y macOS Sequoia. En iOS y iPadOS lo harán este verano en Estados Unidos y solamente en inglés, mientras que en macOS Sequoia se espera que esta nueva oleada de funciones lleguen en otoño.
Junto a todo ello, Apple tampoco ha querido dejar de lado a los desarrolladores (una presentación que históricamente va destinada a ellos precisamente), así que también han anunciado que Apple Intelligence también se integrará en Xcode, el entorno de desarrollo integrado en macOS. Esto significa que los usuarios podrán generar código y obtener consultas relacionadas con su desarrollo en un instante, aunque para ello Apple ofrecerá más detalles próximamente.
Y esto solo ha sido el principio
Apple ha entrado en juego tarde en esto de la inteligencia artificial, pero con todas las funciones y características presentadas, quieren reflejar su intención de querer hacerlo bien y con paso decidido. Para el público español aún tendremos que esperar un buen tiempo hasta que todas estas opciones estén disponibles en nuestro idioma, así que solo queda ver cómo se desenvuelve Apple en este campo, uno en el que, de momento, han dado una impresión que no deja indiferente a nadie.
Imágenes | Apple
Más información | Apple
Ver 1 comentarios