Ecco perché Apple crede di essere un leader dell’AI e perché dice che i critici hanno torto

L’apprendimento automatico (ML) e l’intelligenza artificiale (AI) ora permeano quasi ogni caratteristica dell’iPhone, ma Apple non ha pubblicizzato queste tecnologie come hanno fatto alcuni dei suoi concorrenti. Volevo capire di più sull’approccio di Apple, così ho trascorso un’ora a parlare con due dirigenti Apple sulla strategia dell’azienda e sulle implicazioni per la privacy di tutte le nuove funzioni basate su AI e ML.

Storicamente, Apple non ha avuto una reputazione pubblica di leader in questo settore. Questo è in parte perché la gente associa l’AI con gli assistenti digitali, e i recensori spesso chiamano Siri meno utile di Google Assistant o Amazon Alexa. E con il ML, molti appassionati di tecnologia dicono che più dati significano modelli migliori, ma Apple non è nota per la raccolta di dati allo stesso modo, ad esempio, di Google.

Nonostante questo, Apple ha incluso hardware dedicato ai compiti di apprendimento automatico nella maggior parte dei dispositivi che spedisce. Le funzionalità basate sull’intelligenza artificiale dominano sempre di più i keynote in cui i dirigenti Apple salgono sul palco per introdurre nuove funzionalità per iPhone, iPad o l’Apple Watch. L’introduzione dei Mac con silicio Apple nel corso di quest’anno porterà molti degli stessi sviluppi dell’intelligenza artificiale anche sui computer portatili e desktop dell’azienda.

Sulla scia dell’annuncio del silicio Apple, ho parlato a lungo con John Giannandrea, vicepresidente senior di Apple per l’apprendimento automatico e la strategia AI, così come con Bob Borchers, vicepresidente del marketing dei prodotti. Hanno descritto la filosofia AI di Apple, spiegato come l’apprendimento automatico guida alcune funzioni, e sostenuto con passione la strategia AI/ML di Apple sul dispositivo.

Qual è la strategia AI di Apple?

Sia Giannandrea che Borchers sono entrati in Apple negli ultimi due anni; ognuno di loro ha lavorato in precedenza a Google. Borchers in realtà è rientrato in Apple dopo un periodo di assenza; è stato un direttore senior del marketing per l’iPhone fino al 2009. E la defezione di Giannandrea da Google a Apple nel 2018 è stata ampiamente riportata; era stato il capo di Google per l’AI e la ricerca.

Google e Apple sono aziende molto diverse. Google ha la reputazione di partecipare, e in alcuni casi guidare, la comunità di ricerca sull’IA, mentre Apple faceva la maggior parte del suo lavoro a porte chiuse. Questo è cambiato negli ultimi anni, dato che il machine learning alimenta numerose funzioni nei dispositivi Apple e Apple ha aumentato il suo impegno con la comunità AI.

“Quando sono entrato in Apple, ero già un utente iPad, e amavo la Pencil”, mi ha detto Giannandrea (che si fa chiamare “J.G.” dai colleghi). “Così, rintracciavo i team di software e dicevo: “Ok, dov’è il team di apprendimento automatico che sta lavorando sulla scrittura a mano?”. E non riuscivo a trovarlo”. Si è scoperto che il team che stava cercando non esisteva – una sorpresa, ha detto, dato che l’apprendimento automatico è uno dei migliori strumenti disponibili per la funzione oggi.

“Sapevo che c’era così tanto apprendimento automatico che Apple avrebbe dovuto fare che era sorprendente che non tutto fosse stato effettivamente fatto. E questo è cambiato radicalmente negli ultimi due o tre anni”, ha detto. “Onestamente penso che non ci sia un angolo di iOS o di esperienze Apple che non sarà trasformato dal machine learning nei prossimi anni”.

Vedi altro

Ho chiesto a Giannandrea perché sentiva che Apple era il posto giusto per lui. La sua risposta è stata anche un breve riassunto della strategia AI dell’azienda:

Penso che Apple abbia sempre rappresentato l’intersezione tra creatività e tecnologia. E penso che quando si pensa di costruire esperienze intelligenti, avere un’integrazione verticale, fino in fondo, dalle applicazioni, ai framework, al silicio, è davvero essenziale… Penso che sia un viaggio, e penso che questo sia il futuro dei dispositivi informatici che abbiamo, è che siano intelligenti, e che, quella sorta di smart scompaia.

Anche Borchers è intervenuto, aggiungendo: “Questo è chiaramente il nostro approccio, con tutto ciò che facciamo, che è, ‘Concentriamoci su ciò che è il beneficio, non come ci sei arrivato’. E nei casi migliori, diventa automatico. Scompare… e ci si concentra su ciò che è successo, al contrario di come è successo.”

Parlando ancora dell’esempio della scrittura, Giannandrea ha sostenuto che Apple è nella posizione migliore per “guidare l’industria” nella costruzione di funzioni e prodotti guidati dall’intelligenza artificiale:

Abbiamo fatto la Pencil, abbiamo fatto l’iPad, abbiamo fatto il software per entrambi. Sono solo opportunità uniche per fare un lavoro davvero, davvero buono. In cosa stiamo facendo un lavoro davvero, davvero buono? Permettere a qualcuno di prendere appunti ed essere produttivo con i propri pensieri creativi su carta digitale. Quello che mi interessa è vedere queste esperienze utilizzate su scala mondiale.

L’ha messo in contrasto con Google. “Google è un’azienda incredibile, e ci sono alcuni tecnologi davvero grandiosi che lavorano lì”, ha detto. “Ma fondamentalmente, il loro modello di business è diverso e non sono noti per la spedizione di esperienze di consumo che vengono utilizzate da centinaia di milioni di persone.”

Come usa Apple il machine learning oggi?

Apple ha preso l’abitudine di accreditare il machine learning con il miglioramento di alcune caratteristiche nell’iPhone, Apple Watch o iPad nelle sue recenti presentazioni di marketing, ma raramente entra in molti dettagli – e la maggior parte delle persone che acquistano un iPhone non ha mai guardato queste presentazioni, comunque. Contrasta questo con Google, per esempio, che pone l’IA al centro di gran parte della sua messaggistica ai consumatori.

Ci sono numerosi esempi di machine learning utilizzati nel software e nei dispositivi Apple, la maggior parte dei quali nuovi solo negli ultimi due anni.

Il machine learning è usato per aiutare il software dell’iPad a distinguere tra un utente che preme accidentalmente il palmo della mano contro lo schermo mentre disegna con la Apple Pencil, e una pressione intenzionale intesa a fornire un input. Viene utilizzato per monitorare le abitudini di utilizzo degli utenti per ottimizzare la durata della batteria del dispositivo e la ricarica, sia per migliorare il tempo che gli utenti possono trascorrere tra una ricarica e l’altra, sia per proteggere la vitalità della batteria a lungo termine. È usato per fare raccomandazioni di app.

Pubblicità

Poi c’è Siri, che è forse l’unica cosa che ogni utente di iPhone percepisce immediatamente come intelligenza artificiale. L’apprendimento automatico guida diversi aspetti di Siri, dal riconoscimento vocale ai tentativi di Siri di offrire risposte utili.

I possessori di iPhone esperti potrebbero anche notare che l’apprendimento automatico è dietro la capacità dell’app Foto di ordinare automaticamente le immagini in gallerie pre-fatte, o di darvi accuratamente le foto di un amico di nome Jane quando il suo nome viene inserito nel campo di ricerca dell’app.

In altri casi, pochi utenti possono rendersi conto che l’apprendimento automatico è al lavoro. Per esempio, il vostro iPhone può scattare più foto in rapida successione ogni volta che toccate il pulsante di scatto. Un algoritmo addestrato a ML analizza poi ogni immagine e può comporre ciò che ritiene le parti migliori di ogni immagine in un unico risultato.

L'AI è dietro la funzione di assistenza al lavaggio delle mani di Apple nell'Apple Watch.
Ingrandisci / L’AI è dietro la funzione di assistenza al lavaggio delle mani dell’Apple Watch.
Sam Machkovech

I telefoni hanno da tempo incluso processori di segnale d’immagine (ISP) per migliorare la qualità delle foto digitalmente e in tempo reale, ma Apple ha accelerato il processo nel 2018 facendo lavorare l’ISP nell’iPhone a stretto contatto con il Neural Engine, il processore dell’azienda recentemente aggiunto focalizzato sull’apprendimento automatico.

Ho chiesto a Giannandrea di nominare alcuni dei modi in cui Apple utilizza l’apprendimento automatico nei suoi software e prodotti recenti. Ha dato una lista di esempi:

C’è un sacco di nuove esperienze che sono alimentate dal machine learning. E queste sono cose come la traduzione delle lingue, o la dettatura sul dispositivo, o le nostre nuove funzioni intorno alla salute, come il sonno e il lavaggio delle mani, e cose che abbiamo rilasciato in passato intorno alla salute del cuore e cose del genere. Penso che ci siano sempre meno posti in iOS dove non stiamo usando il machine learning.

È difficile trovare una parte dell’esperienza in cui non stai facendo qualche previsione. Come le previsioni delle app, o le previsioni della tastiera, o le moderne fotocamere degli smartphone fanno una tonnellata di apprendimento automatico dietro le quinte per capire ciò che chiamano “salienza”, che è come, qual è la parte più importante dell’immagine? Oppure, se si immagina di sfocare lo sfondo, si sta facendo la modalità ritratto.

Tutte queste cose beneficiano delle caratteristiche di apprendimento automatico di base che sono integrate nella piattaforma Apple. Quindi, è quasi come, “Trovami qualcosa dove non stiamo usando l’apprendimento automatico.”

Borchers ha anche sottolineato le caratteristiche di accessibilità come esempi importanti. “Sono fondamentalmente rese disponibili e possibili grazie a questo”, ha detto. “Cose come la capacità di rilevamento del suono, che è un gioco che cambia per quella particolare comunità, è possibile a causa degli investimenti nel tempo e le capacità che sono state costruite.”

Inoltre, avrete notato che gli aggiornamenti software e hardware di Apple negli ultimi due anni hanno enfatizzato le caratteristiche di realtà aumentata. La maggior parte di queste caratteristiche sono rese possibili grazie al machine learning. Per Giannandrea:

Il machine learning è usato molto nella realtà aumentata. Il problema difficile lì è quello che si chiama SLAM, quindi Simultaneous Localization And Mapping. Quindi, cercare di capire se hai un iPad con uno scanner lidar e ti stai muovendo, cosa vede? E costruire un modello 3D di ciò che sta effettivamente vedendo.

Questo oggi utilizza l’apprendimento profondo e bisogna essere in grado di farlo sul dispositivo perché si vuole essere in grado di farlo in tempo reale. Non avrebbe senso se stai agitando il tuo iPad in giro e poi forse dovrai farlo al centro dati. Quindi, in generale, direi che il modo in cui penso a questo è che l’apprendimento profondo in particolare ci sta dando la capacità di passare dai dati grezzi alla semantica su quei dati.

In misura crescente, Apple esegue compiti di apprendimento automatico localmente sul dispositivo, su hardware come l’Apple Neural Engine (ANE) o sulle GPU (unità di elaborazione grafica) progettate dall’azienda. Giannandrea e Borchers hanno sostenuto che questo approccio è ciò che rende la strategia di Apple diversa da quella dei concorrenti.

Perché farlo sul dispositivo?

Nella nostra conversazione, sia Giannandrea che Borchers hanno sostenuto con passione che le caratteristiche che abbiamo appena esaminato sono possibili grazie al fatto che tutto il lavoro è fatto localmente sul dispositivo, e non nonostante questo.

C’è una narrazione comune che riduce il machine learning all’idea che più dati significano modelli migliori, che a loro volta significano esperienze e prodotti migliori per gli utenti. È uno dei motivi per cui gli osservatori spesso indicano Google, Amazon o Facebook come probabili dominatori del pollaio dell’IA; queste aziende operano enormi motori di raccolta dati, in parte perché operano e hanno totale visibilità in quella che è diventata l’infrastruttura digitale chiave per gran parte del mondo. Secondo questa misura, Apple è considerata da alcuni improbabile che si comporti altrettanto bene, perché il suo modello di business è diverso e si è impegnata pubblicamente a limitare la sua raccolta dati.

Quando ho presentato queste prospettive a Giannandrea, non si è trattenuto:

Sì, capisco questa percezione di modelli più grandi nei data center in qualche modo sono più accurati, ma in realtà è sbagliato. In realtà è tecnicamente sbagliato. È meglio eseguire il modello vicino ai dati, piuttosto che spostare i dati. E che si tratti di dati di localizzazione – come cosa stai facendo – dati di esercizio – cosa sta facendo l’accelerometro nel tuo telefono – è semplicemente meglio essere vicini alla fonte dei dati, e quindi è anche preservare la privacy.

Borchers e Giannandrea hanno entrambi ripetutamente fatto notare le implicazioni sulla privacy di fare questo lavoro in un centro dati, ma Giannandrea ha detto che l’elaborazione locale riguarda anche le prestazioni.

“Una delle altre grandi cose è la latenza”, ha detto. “Se stai inviando qualcosa a un centro dati, è davvero difficile fare qualcosa al frame rate. Quindi, abbiamo un sacco di applicazioni nell’app store che fanno cose, come la stima della posa, come capire che la persona si sta muovendo, e identificare dove sono le gambe e le braccia, per esempio. Questa è un’API di alto livello che offriamo. Questo è utile solo se si può farlo al frame rate, essenzialmente.”

Pubblicità

Ha dato un altro esempio di caso d’uso del consumatore:

Stai scattando una fotografia, e i momenti prima di scattare una foto con la fotocamera, la fotocamera sta vedendo tutto in tempo reale. Può aiutarvi a prendere una decisione su quando scattare una fotografia. Se si volesse prendere questa decisione sul server, si dovrebbe inviare ogni singolo fotogramma al server per prendere una decisione su come scattare una fotografia. Questo non ha senso, giusto? Quindi, ci sono un sacco di esperienze che si vorrebbero costruire che sono fatte meglio sul dispositivo edge.

Chiesto come Apple sceglie quando fare qualcosa on-device, la risposta di Giannandrea è stata semplice: “Quando possiamo soddisfare, o battere, la qualità di ciò che potremmo fare sul server.”

Inoltre, entrambi i dirigenti di Apple hanno accreditato il silicio personalizzato di Apple – in particolare il silicio Apple Neural Engine (ANE) incluso negli iPhone dall’iPhone 8 e iPhone X – come un prerequisito per questa elaborazione sul dispositivo. Il Neural Engine è un’unità di elaborazione neurale octa-core (NPU) che Apple ha progettato per gestire alcuni tipi di compiti di apprendimento automatico.

Pubblicità

“È un viaggio pluriennale perché l’hardware non era stato disponibile per fare questo sul bordo cinque anni fa”, ha detto Giannandrea. “Il design ANE è interamente scalabile. C’è un ANE più grande in un iPad che in un telefono, che in un Apple Watch, ma il livello API CoreML per le nostre app e anche per le app degli sviluppatori è fondamentalmente lo stesso su tutta la linea di prodotti.”

Quando Apple ha parlato pubblicamente del Neural Engine, l’azienda ha condiviso numeri sulle prestazioni, come 5 trilioni di operazioni al secondo nel chip A12 del 2018. Ma non è diventata specifica sull’architettura del chip. È letteralmente una scatola nera sulle diapositive nelle presentazioni di Apple.

Il motore neurale di Apple dal palco delle presentazioni.
Il motore neurale di Apple dal palco delle presentazioni.

Dato questo, volevo sapere se Giannandrea avrebbe fatto più luce su come funziona il motore neurale sotto il cofano, ma ha rifiutato di entrare in molti dettagli. Invece, ha detto che gli sviluppatori di app possono ottenere tutto ciò che hanno bisogno di sapere da CoreML, un’API di sviluppo software che fornisce agli sviluppatori l’accesso alle capacità di apprendimento automatico dell’iPhone.

L’API per gli sviluppatori CoreML delinea molto chiaramente i tipi di modelli di apprendimento automatico, modelli runtime che supportiamo… Abbiamo una serie crescente di kernel che supportiamo. E si punta a CoreML da qualsiasi cosa di apprendimento automatico popolare, come PyTorch o TensorFlow, e poi essenzialmente si compila il proprio modello e poi lo si dà a CoreML.

Il lavoro di CoreML è quello di capire dove eseguire quel modello. Potrebbe essere che la cosa giusta da fare sia eseguire il modello su ANE, ma potrebbe anche essere la cosa giusta per eseguire il modello sulla GPU o per eseguire il modello sulla CPU. E anche la nostra CPU ha ottimizzazioni per l’apprendimento automatico.

Durante la nostra conversazione, entrambi i dirigenti hanno indicato tanto le applicazioni di sviluppatori di terze parti quanto quelle di Apple. La strategia qui non è solo guidare i servizi e le caratteristiche fatte da Apple; sta aprendo almeno alcune di quelle capacità alla grande comunità di sviluppatori. Apple ha fatto affidamento sugli sviluppatori per innovare le sue piattaforme da quando l’App Store è stato aperto nel 2008. L’azienda spesso prende in prestito le idee che gli sviluppatori hanno proposto quando aggiornano le proprie applicazioni fatte internamente.

I dispositivi di Apple non sono gli unici con chip di apprendimento automatico incorporato, naturalmente. Samsung, Huawei e Qualcomm includono tutte NPU nei loro sistemi-on-a-chip, per esempio. E anche Google offre API di apprendimento automatico agli sviluppatori. Eppure, la strategia e il modello di business di Google sono notevolmente diversi. I telefoni Android non fanno quasi la stessa gamma di compiti di apprendimento automatico a livello locale.

Mac con silicio Apple

L’obiettivo della mia intervista con Giannandrea e Borchers non era il grande annuncio che l’azienda ha fatto al WWDC solo poche settimane fa, l’imminente lancio di Mac con silicio Apple. Ma quando ho ipotizzato che una delle molte ragioni di Apple per progettare i Mac intorno ai propri chip potrebbe essere l’inclusione del Neural Engine, Borchers ha detto:

Per la prima volta avremo una piattaforma comune, una piattaforma di silicio che può supportare ciò che vogliamo fare e ciò che i nostri sviluppatori vogliono fare…. Questa capacità sbloccherà alcune cose interessanti a cui possiamo pensare, ma probabilmente, cosa più importante, sbloccherà molte cose per altri sviluppatori man mano che procedono.

Il primo Mac con silicio Apple, tecnicamente: il kit di transizione per sviluppatori.
Ingrandisci / Il primo Mac con silicio Apple, tecnicamente: il kit di transizione per sviluppatori.
Sam Machkovech

Giannandrea ha dato un esempio specifico di come gli strumenti e l’hardware di apprendimento automatico di Apple saranno utilizzati sul Mac:

Non so se avete visto quella demo nello Stato dell’Unione, ma fondamentalmente l’idea era: dato un video, passare attraverso il video frame o frame-by-frame e fare il rilevamento degli oggetti. E si può fare più di un ordine di grandezza più veloce sul nostro silicio di quanto si potrebbe fare sulla piattaforma legacy.

E poi, si dice, “Beh, questo è interessante. Beh, perché è utile?” Immaginate un editor video dove avete una casella di ricerca e potete dire: “Trovami la pizza sul tavolo”. E sarebbe semplicemente scrollato fino a quel fotogramma… Questi sono i tipi di esperienze che penso vedrete la gente inventare. Vogliamo molto che gli sviluppatori usino questi framework e ci sorprendano per quello che possono effettivamente fare con essi.

Apple ha detto alla sua conferenza degli sviluppatori che prevede di spedire i Mac con il proprio silicio a partire dalla fine di quest’anno.

E la privacy?

La privacy è stata al centro dei messaggi di Apple agli utenti negli ultimi due anni. È stata citata più e più volte nei keynote e nei materiali di marketing, ci sono promemoria su di essa sparsi in iOS, e spesso viene fuori nelle interviste, come nel caso di questa.

“Le persone sono preoccupate per l’IA in generale perché non sanno cosa sia”, mi ha detto Giannandrea. “Pensano che sia più capace di quello che è, o pensano a questa visione fantascientifica dell’IA, e ci sono persone influenti come Bill Gates e Elon Musk e altri che dicono che questa è una tecnologia pericolosa.”

Ritiene che il clamore intorno all’IA da parte di altre grandi aziende tecnologiche sia negativo, non positivo, per gli sforzi di marketing di quelle aziende “perché la gente è preoccupata per questa tecnologia.”

Il termine “IA” potrebbe non essere utile qui. Evoca cattivi sintetici malvagi dalla cultura pop, come Skynet o HAL 9000. Ma la maggior parte degli esperti di intelligenza artificiale applicata vi dirà che questo esito oscuro è lontano dalla realtà. La tecnologia guidata dall’apprendimento automatico comporta molti rischi – ereditare e amplificare i pregiudizi umani, per esempio – ma diventare canaglia e attaccare violentemente l’umanità non sembra probabile nell’immediato futuro.

Pubblicità

L’apprendimento automatico non rende effettivamente le macchine intelligenti allo stesso modo degli umani. Per questa e altre ragioni, molti esperti di AI (Giannandrea incluso) hanno suggerito termini alternativi come “intelligenza delle macchine” che non tracciano paralleli con l’intelligenza umana.

Qualunque sia la nomenclatura, l’apprendimento automatico può portare con sé un pericolo molto reale e presente: l’indebolimento della privacy degli utenti. Alcune aziende raccolgono aggressivamente i dati personali degli utenti e li caricano nei data center, usando l’apprendimento automatico e l’addestramento come giustificazione.

Come notato sopra, Apple fa molta di questa raccolta ed elaborazione localmente sul dispositivo dell’utente. Giannandrea ha esplicitamente legato questa decisione alle preoccupazioni sulla privacy. “Penso che abbiamo una posizione molto chiara su questo, che è quello di fare questa tecnologia avanzata di apprendimento automatico nel maggior numero possibile di casi sul vostro dispositivo, e i dati non lasceranno il vostro dispositivo”, ha detto. “Abbiamo una dichiarazione molto chiara sul perché pensiamo che i nostri dispositivi siano più sicuri o migliori o dovrebbero essere più affidabili.”

Pubblicità

Ha usato il text-to-speech come esempio specifico di questa filosofia in azione:

Se dici qualcosa come, “Leggimi i miei messaggi da Bob.” La sintesi del testo a voce avviene sul dispositivo, sul motore neurale – la combinazione del motore neurale e della CPU. E a causa di questo, non abbiamo mai visto il contenuto del tuo messaggio da Bob perché il tuo telefono lo sta leggendo – non sono i server che lo leggono. Quindi, il contenuto di quel messaggio non è mai arrivato al server…

Quindi questo è un grande esempio di tecnologia avanzata che migliora effettivamente sia l’utilità per l’utente, perché la voce viene sintetizzata sul dispositivo, quindi anche se sei disconnesso, funziona ancora. Ma anche la storia della privacy. È davvero difficile da fare. Un sacco di ingegneria davvero dura è andata nel rendere l’alta qualità moderna essere sintetizzata su un dispositivo che si può mettere in tasca.

Naturalmente, è necessario utilizzare alcuni dati utente per l’apprendimento automatico in molti casi. Quindi, esattamente, come usa Apple i dati utente che gestisce? Giannandrea ha spiegato:

In generale, abbiamo due modi per costruire modelli. Uno è quello in cui raccogliamo ed etichettiamo i dati, che è appropriato in molte, molte circostanze. E poi c’è il caso in cui chiediamo agli utenti di donare i loro dati. L’esempio più notevole di questo sarebbe Siri dove, quando si imposta un iPhone, diciamo: “Vuoi aiutare a rendere Siri migliore?”

Questo è un caso in cui una certa quantità di dati ci viene donata e poi una percentuale molto piccola di questo può essere utilizzata per la formazione. Ma molte, molte cose di cui stiamo parlando qui, come ad esempio la scrittura a mano, possiamo raccogliere abbastanza dati per addestrare il modello a lavorare fondamentalmente con la scrittura di tutti senza dover utilizzare alcun dato del consumatore.

Alcune di queste richieste di utilizzare i vostri dati sono state aggiunte di recente. La scorsa estate, un rapporto ha indicato che Siri stava registrando ciò che gli utenti dicevano dopo attivazioni accidentali; gli appaltatori che avevano il compito di garantire la qualità della funzionalità di Siri stavano ascoltando alcune di queste registrazioni.

Apple ha risposto impegnandosi a memorizzare solo l’audio relativo a Siri dopo che gli utenti hanno esplicitamente scelto di rendere Siri migliore condividendo le registrazioni (questo comportamento è stato introdotto in iOS 13.2) e poi ha portato tutto il controllo della qualità in-house. Ho chiesto cosa sta facendo Apple in modo diverso dagli appaltatori con questi dati. Giannandrea ha risposto:

Abbiamo un sacco di garanzie. Per esempio, c’è un processo per identificare se l’audio era destinato o meno all’assistente, che è completamente separato dal processo per esaminare effettivamente l’audio. Quindi facciamo un sacco di cose internamente per assicurarci che non stiamo catturando – e poi scartando, di fatto – qualsiasi audio accidentale.

Ma se non siete disposti a QA, al vostro punto, la funzione, allora non riuscirete mai a migliorare le registrazioni accidentali. Come sai, l’apprendimento automatico richiede che tu lo migliori continuamente. Così abbiamo effettivamente rivisto molti dei nostri flussi di lavoro e processi nello stesso momento in cui abbiamo portato il lavoro in-house. Sono molto fiducioso che abbiamo uno dei migliori processi per migliorare l’assistente in modo da preservare la privacy.

È chiaro che Apple sta cercando di spingere le protezioni della privacy come una caratteristica chiave nei suoi dispositivi; da Giannandrea, questo è venuto fuori come una vera convinzione. Ma potrebbe anche aiutare Apple sul mercato, dato che il suo più grande concorrente nello spazio mobile ha un curriculum molto peggiore sulla privacy, e questo lascia un’apertura man mano che gli utenti diventano sempre più preoccupati per le implicazioni sulla privacy dell’IA.

Durante la nostra conversazione, sia Giannandrea che Borchers sono tornati su due punti della strategia di Apple: 1) è più performante fare i compiti di apprendimento automatico localmente, e 2) è più “preservare la privacy” – una parola specifica che Giannandrea ha ripetuto alcune volte nella nostra conversazione – per farlo.

Dentro la scatola nera

Dopo una lunga storia in cui si lavorava per lo più all’oscuro delle funzioni di IA, l’enfasi di Apple sull’apprendimento automatico si è notevolmente ampliata negli ultimi anni.

L’azienda pubblica regolarmente, fa sponsorizzazioni accademiche, ha borse di studio, sponsorizza laboratori, va alle conferenze AI/ML. Ha recentemente rilanciato un blog di apprendimento automatico dove condivide alcune delle sue ricerche. È stata anche in un’ondata di assunzioni, raccogliendo ingegneri e altri nello spazio dell’apprendimento automatico, compreso lo stesso Giannandrea solo due anni fa.

Pubblicità

Non sta guidando la comunità di ricerca nel modo in cui lo sta facendo Google, ma Apple fa capire che sta guidando almeno nel portare i frutti dell’apprendimento automatico a più utenti.

Ricordate quando Giannandrea ha detto che era sorpreso che l’apprendimento automatico non fosse usato per la scrittura con la Pencil? Ha continuato a vedere la creazione del team che l’ha reso possibile. E in tandem con altri team, sono andati avanti con la scrittura a mano guidata dal machine learning, una pietra miliare in iPadOS 14.

“Abbiamo un sacco di incredibili professionisti del machine learning in Apple, e continuiamo ad assumerli”, ha detto Gianandrea. “Trovo molto facile attrarre persone di livello mondiale in Apple perché sta diventando sempre più ovvio nei nostri prodotti che l’apprendimento automatico è fondamentale per le esperienze che vogliamo costruire per gli utenti.”

Dopo una breve pausa, ha aggiunto: “Credo che il problema più grande che ho è che molti dei nostri prodotti più ambiziosi sono quelli di cui non possiamo parlare e quindi è un po’ una sfida di vendita dire a qualcuno, ‘Vieni a lavorare sulla cosa più ambiziosa di sempre ma non posso dirti di cosa si tratta.

Pubblicità

Se le grandi aziende tecnologiche e gli investimenti di venture capital sono da credere, l’IA e l’apprendimento automatico diventeranno sempre più onnipresenti nei prossimi anni. Comunque vada, Giannandrea e Borchers hanno chiarito una cosa: l’apprendimento automatico ora gioca una parte in gran parte di ciò che Apple fa con i suoi prodotti, e molte delle caratteristiche che i consumatori usano quotidianamente. E con il Neural Engine in arrivo sui Mac a partire da questo autunno, il ruolo del machine learning alla Apple continuerà probabilmente a crescere.