Introduzione
Durante la WWDC 2025 sono stati presentati numerosi miglioramenti ad Apple Intelligence che che guadagna nuove funzionalità e si integra in maniera sempre più profondamente nei sistemi operativi di ogni dispositivo Apple, ma SIRI è rimasta al palo. A confermarlo è stato proprio Craig Federighi, responsabile della divisione che si occupa dello sviluppo dei sistemi operativi di Apple, che ha spiegato come l’aggiornamento di SIRI abbia bisogno di più tempo per raggiungere gli standard di qualità richiesti. Pertanto, la vera evoluzione di SIRI, con le nuove funzionalità di intelligenza artificiale, ha continuato Federighi, sarà disponibile solo a partire dal 2026, probabilmente con l’arrivo di iOS 19. Se fossero stati al Moscone Center di San Francisco, dove prima del lockdown si tenevano i Keynote con i giornalisti in presenza, sarebbe venuto giù il teatro. Durante tutto l’evento di apertura dei lavori della WWDC25 l’azienda di Cupertino ha presentato le meraviglie di Apple Intelligence e la collaborazione con OpenAI, lasciando Siri ai margini e confermando un ritardo che ormai è imbarazzante. Le nuove funzionalità AI non sono ancora integrate in Siri, e la promessa di un assistente intelligente realmente utile resta, per ora, disattesa.
In questo post analizzeremo i motivi per i quali SIRI è rimasta indietro, quali sono i problemi architetturali e strategici che bloccano la sua evoluzione e spiegheremo perché “mettere pezze” non basta più. È giunto il momento, forse, di ripensare l’assistente di Apple da zero.
Un’architettura nata in un’altra era
Siri è nata nel 2011, molto prima della rivoluzione portata dai modelli linguistici di grandi dimensioni (LLM). All’epoca, il suo paradigma di funzionamento era basato su regole e intents predefiniti: l’utente dice qualcosa, SIRI estrae un intento da una lista finita (es. impostare timer, inviare messaggi) e chiama un modulo software dedicato.
Questo approccio:
- funziona per task semplici e ripetitivi;
- fallisce appena si esce dallo schema o se la frase è ambigua;
- non può portare alla capacità di generalizzare, imparare, comprendere. Mancano, in buona sostanza, le funzioni di autoapprendimento.
Un assistente basato su LLM, come ChatGPT o Gemini, funziona in modo completamente diverso: non ha bisogno di regole rigide, comprende il linguaggio naturale aperto, gestisce contesto e conversazioni lunghe. L’architettura di SIRI semplicemente non è nata per questo.
Nessuna memoria, nessun contesto
Il principale problema di Siri è il suo essere “stateless”: ogni comando viene trattato come evento a sé stante. Non ricorda cosa l’utente ha detto prima, non tiene traccia del contesto in cui avviene la discussione, non ha memoria di quanto lei stessa hadetto precedentemente. Al contrario, un modello come GPT-4 può:
- seguire conversazioni complesse;
- adattarsi all’utente;
- mantenersi “sul pezzo” per centinaia di messaggi.
Facciamo un esempio pratico, provate a chiedere a SIRI: “Com’è il meteo oggi a Milano?”
SIRI vi risponderà più o meno: “Oggi a Milano ci sono 27 gradi di massima, 20 di minima ed è parzialmente nuvoloso.”
Se gli chiedete : “E domani?”
Siri vi risponderà rimandandovi ad un servizio meteo tra i più affidabili, ma non vi dirà nulla sul tempo di domani a Milano. Se invece gli chiedete che tempo farà a Milano oggi e domani, vi risponderà per entrambi i giorni. A questo punto, se gli chiedete “E la prossima settimana” o non risponde o propone una serie di risposte che secondo lei possono centrare col quesito, magari facendo riferimento alla cronologia delle ricerche effettuate con Safari e che, naturalmente, non non hanno nulla a che fare col contesto della discussione che verteva sul meteo a Milano. Questo è inaccettabile.
Un sistema che non è riuscito ad evolversi
Negli anni, Apple ha provato a migliorare Siri con nuove tecnologie:
- comprensione semantica migliorata;
- dettatura neurale;
- mini LLM on-device.
Ma tutto è stato sovrapposto a un’architettura obsoleta, che non è stata riprogettava dalle fondamenta. Come mettere un motore Tesla su una Fiat 500 degli anni ’60. Non funziona.
Il paradosso dell’AI on-device
Apple vuole che l’AI resti on-device per proteggere la privacy. Ma SIRI è nata come sistema client-server, e i suoi comandi sono spesso gestiti su server remoti.
Integrare veri LLM su dispositivi ad uso personale è molto difficile perché:
1. Richiede enormi risorse di calcolo locali
L’integrazione di modelli linguistici di grandi dimensioni (LLM) come GPT o Mistral on-device comporta un uso intensivo di CPU, GPU e Neural Engine. A differenza dei comandi classici di SIRI (basati su intent semplici e leggeri), i nuovi modelli neurali richiedono:
- memoria RAM elevata (8–16 GB minimi) per la gestione del modello;
- latenze basse per offrire risposte fluide;
- batteria in grado di sostenere il carico di lavoro che deve svolgersi turno sul dispositivo.
I chip M1, ad esempio, ormai vecchi di quattro anni, potrebbero essere lenti e l’A17 Pro, pur potente, fatica a gestire localmente un LLM di dimensioni medio – grandi con continuità. Questo limita l’esperienza su device meno recenti e impone una selezione più ristretta delle funzioni AI Disponibili.
2. Impone una pipeline asincrona e neurale
I LLM non operano con risposte immediate stile “if…then”. Ogni input richiede un’elaborazione sequenziale su token, una comprensione del contesto e una generazione linguistica. Questo:
- rende tutto asincrono (non istantaneo come i comandi di SIRI);
- introduce latenze imprevedibili a seconda della complessità del prompt;
- rende necessaria l’implementazione di una nuova pipeline neurale, incompatibile con il flusso sincrono di SIRI.
Esempio: SIRI riceve il comando “accendi la luce” → il comando viene eseguito senza incertezze.
Una tipica pipeline AI può ricevere comandi del tipo “potresti attivare la luce del soggiorno se è già buio?” → interpreta → elabora → decide → esegue. Ottenere questo risultato per SIRI è impossibile.
Come capirete, è necessario un cambio di paradigma totale.
3. Non è un processo compatibile con la vecchia SIRI
La SIRI attuale è costruita attorno a una struttura modulare statica, dove ogni funzione è riferita a un particolare modulo: musica, meteo, timer, ecc. Questi moduli sono invocati tramite una mappa di intents rigida e fragile. Un LLM, invece, decide dinamicamente cosa fare, senza passare da intent fissi.
Di conseguenza:
- SIRI AI non potrà convivere facilmente con la vecchia logica;
- Apple sarà costretta a mantenere due sistemi paralleli per un lungo periodo(è quello che sta avvenendo);
- la transizione deve essere gestita con fallback, doppio routing, e logiche ibride, rallentando l’intero progetto. Più nel dettaglio serve una strategia in cui, se il nuovo sistema AI fallisce o non capisce, si torna automaticamente a usare il vecchio sistema.(Fallback). Ogni comando dell’utente deve essere instradato verso il motore corretto (il vecchio Siri o il nuovo modello AI). Serve, quindi, un livello intermedio che capisca a quale sistema affidare ogni richiesta.(Doppio routine). Sarà quindi necessario usare entrambe le architetture contemporaneamente, integrandole in modo dinamico nella stessa conversazione, ma queste integrazioni richiedono che i due sistemi parlino tra loro in modo fluido e coerente — cosa molto difficile da ottenere, soprattutto affidandosi alla potenza locale di device con risorse limitate.(Logiche ibride)
Cosa ne pensa la stampa di settore internazionale
È opinione unanime di molti osservatori internazionali che le novità che Apple ha promesso per SIRI quando arriveranno saranno deludenti. Ecco una raccolta di pareri autorevoli che spiegano come che analizza la questione.
- TechCrunch: nessuna Siri AI alla WWDC 25. Apple resta indietro rispetto ai rivali.
- MacRumors: Apple ammette i limiti di “Siri V1”. La “V2” non arriverà prima del 2026.
- The Verge: Craig Federighi conferma che il primo tentativo di Apple di introdurre un’intelligenza artificiale su Siri non è stato abbastanza buono.
- Business Insider: Apple spiega perché la nuova Siri è in ritardo.
- NY Post: Apple ammette i ritardi nella revisione di Siri AI alla presentazione poco brillante del WWDC: “Nel complesso uno sbadiglio”
- Barron’s: Siri delude investitori e utenti.
- The Guardian: Apple ha sottovalutato la sfida Siri.
- Wired: “È ora di uccidere Siri.” Serve un nuovo inizio.
- SFGate: Siri è il simbolo delle difficoltà Apple con l’AI.
Conclusione: serve un nuovo inizio
SIRI non ha solo bisogno di nuove funzioni che le possono arrivare solo da una nuova architettura. Continuare a rattoppare un sistema nato in un’altra epoca è un errore strategico.
Google ha lasciato alle spalle “Assistant” e lanciato Gemini. Apple dovrebbe fare lo stesso. La posta in gioco è alta, il futuro dell’intelligenza artificiale della casa di Cupertino non può costruirsi su fondamenta vecchie. SIRI, così com’è, non è all’altezza della sfida.
Claudio Di Tursi per ApplePhilosophy