Durante la conferenza annuale per sviluppatori WWDC Apple ha presentato i suoi piani per l’intelligenza artificiale, ingegnosamente chiamata Apple Intelligence preservando così l’acronimo AI. Apple userà dei modelli di AI generativa sviluppati internamente per alimentare nuove funzioni come gli strumenti di scrittura, la revisione dei testi, le risposte automatiche e i riassunti nelle email.
C’è anche la generazione di emoji e immagini ma la cosa più attesa è la nuova versione di Siri, l’assistente vocale lanciato nel 2011, che sarà in grado di interpretare il linguaggio naturale in modo più avanzato e in futuro sarà anche in grado di eseguire azioni all’interno delle app in base ai comandi vocali (o testuali).
Queste nuove funzionalità saranno disponibili come “beta” dall’autunno prossimo, ma con dei limiti. La lingua supportata sarà solo l’inglese americano e Apple Intelligence sarà attivabile solo su iPhone 15 Pro e su Mac e iPad con chip M1+, probabilmente per via dei requisiti di memoria (almeno 8 GB).
Nonostante queste limitazioni e il fatto che per ora non ci sia nulla di concreto da provare le reazioni sono state positive: in borsa Apple è tornata ad essere l’azienda più valutata al mondo, superando Microsoft. Possiamo identificare alcuni fattori che rendono Apple Intelligence diversa dall’AI che abbiamo visto finora:
È integrata con il sistema operativo: non c’è una nuova app ma Apple ha provato a inserire le funzioni in varie parti di iOS e macOS, una cosa che finora né Microsoft né Google sono riusciti a fare efficacemente nei propri sistemi operativi. Se finora l’AI generativa è stata presentata come un prodotto, per Apple l’AI è parte delle funzioni del sistema operativo.
Funziona in buona parte in locale sul proprio smartphone o computer, grazie a dei piccoli modelli generativi sviluppati internamente da Apple, permettendo così di preservare la privacy degli utenti. Per compiti più sofisticati Apple ricorrerà a dei modelli più grandi eseguiti in cloud, all’interno di una nuova infrastruttura chiamata Private Cloud Compute appositamente progettata per minimizzare il rischio di uso improprio dei dati trasmessi.
Apple ha trovato un modo per sfruttare i dati contenuti nelle app creando un indice semantico locale di questi dati. Informazioni come i messaggi, le email, il calendario e le foto saranno quindi utilizzabili da Siri per rispondere alle richieste. Siri conoscerà la nostra vita e potrà forse arrivare ad essere un vero assistente personale.
Per i compiti che Apple Intelligence non sarà in grado di svolgere interverrà l’integrazione con ChatGPT di OpenAI. Sarà utilizzabile gratuitamente, senza limiti e senza avere un account su OpenAI. Per Apple questo accordo è conveniente perché non pagherà OpenAI in denaro ma in visibilità, e al tempo stesso potrà scaricare su OpenAI la responsabilità di eventuali errori commessi dal chatbot.