Apple sta costruendo un sistema di apprendimento automatico che li dominerà tutti
Con Siri destinato a vedere miglioramenti significativi una volta che iOS 13 verrà spedito, Apple sta apparendo a un importante tradeshow di AI vocale e ha pubblicato uno studio che spiega alcuni dei dettagli di una tecnologia di apprendimento automatico (ML) di prima qualità che chiama “Overton.”
Definizione di una finestra di apprendimento automatico
Questa settimana, Apple sponsorizza la più grande conferenza mondiale sull’elaborazione del linguaggio parlato, Interspeech 2019.
Come parte del suo lavoro all’evento, ha presentato più documenti di ricerca – e i membri dei suoi team di apprendimento automatico in crescita incontreranno i partecipanti.
Tra gli altri argomenti (vedili tutti qui), Apple presenterà documenti sul rilevamento dell’espressione/intento attraverso la voce, migliorando il riconoscimento vocale, sviluppando strumenti più accurati per comprendere le sfumature del discorso, utilizzando il mirroring per costruire relazioni tra utenti umani e assistenti vocali e utilizzando la tecnologia per ottimizzare il miglioramento del discorso.
Potremmo saperne un po’ di più su ciò che l’azienda sta facendo in ML sul nuovissimo portale Youtube di Interspeech, anche se non sappiamo se qualche video di Apple apparirà lì.
Non è uno shock che gli scienziati di Apple si stiano impegnando con la più ampia comunità scientifica. L’azienda ha pubblicato sporadici documenti e annunci di apprendimento automatico sul proprio portale di Machine Learning dal 2017.
Introduzione di Overton
Apple sostiene di avere una soluzione prima nel suo genere con Overton – mira a consentire gran parte della personalizzazione dei modelli di ML per essere gestita dalla macchina, non dall’uomo.
L’interazione vocale è solo il front-end di ciò che accade quando si fa una domanda a Siri. I modelli di apprendimento automatico devono poi cercare di capire la domanda, contestualizzarla e capire la risposta più accurata. Fornire una risposta di alta qualità è in realtà più difficile di quanto sembri.
Certo, per alcune interrogazioni tutto ciò che otterrete da Siri saranno i dati che ha trovato su una pagina di Wikipedia, (anche se anche in quel caso potrebbe aver controllato diverse pagine simili per eleggere la risposta più rilevante). Ma l’obiettivo finale deve essere che Siri diventi una fonte efficace per risposte complesse a problemi complessi – fino al punto di predirli.
Questi prossimi passi sono difficili da realizzare.
Come possono gli scienziati diventare più sicuri che la risposta che Siri deve dare sia la più precisa disponibile?
Questo è il tipo di sfida che Apple sta affrontando con Overton, che “automatizza il ciclo di vita della costruzione, dell’implementazione e del monitoraggio dei modelli”.
In termini umani questo significa che la macchina stessa corregge e aggiusta i modelli di apprendimento automatico in risposta a stimoli esterni, rendendoli più accurati e riparando i difetti logici che potrebbero portare a una conclusione errata. L’idea è che gli esseri umani possono quindi concentrarsi sulla supervisione di alto livello dei modelli di apprendimento automatico.
Questo (penso) significa che piuttosto che avere bisogno di entrare in profondità nel codice sempre più complesso per fare aggiustamenti minori ma necessari, gli esseri umani possono richiedere una serie di modifiche che Overton poi applica.
Quasi letteralmente, stanno controllando la finestra di Overton.
Come userà Apple questo?
Penso che le ambizioni di Apple per Siri si estendano oltre l’essere l’equivalente digitale dell’amico leggermente inutile che a volte interroghi anche se sai che potresti non ottenere una risposta utile.
Siri è destinato ad essere un assistente vocale in grado di portare informazioni di alto livello, analisi contestualizzate e aumento dei compiti che già fai. Siri Suggestions mostra questa direzione, anche se le implementazioni rimangono limitate.
Apple dice: “Una direzione importante del lavoro in corso sono i sistemi che si basano su Overton per aiutare a gestire l’aumento dei dati, la supervisione programmatica e la collaborazione.”
Penso anche che Overton abbia implicazioni per la privacy dell’utente.
Pensateci così:
Gli scienziati della Apple costruiscono modelli che credono essere altamente accurati. Questi modelli girano sul dispositivo iOS. Overton fornisce quei modelli con un certo grado di indipendenza e i sistemi di ML regolano i modelli per l’accuratezza e la rilevanza – il tutto senza dare ai ricercatori una visione granulare delle azioni individuali.
Questo significa che i gestori dei dati (in questo caso, gli scienziati che creano quei modelli in primo luogo) occupano ruoli strategici più generalizzati in cui le informazioni riguardanti i singoli utenti non sono rese disponibili per loro.
Apple crea macchine ML per gestire alcuni compiti definiti, mentre anche dotando le macchine stesse di personalizzare i modelli che utilizzano. Questo sembra essere ciò di cui si occupa Overton – ed era certamente parte di ciò che ha spinto Apple ad acquistare Silk Labs.
Apple dice che Overton è il primo sistema di gestione dell’apprendimento automatico impostato per migliorare e monitorare la qualità delle applicazioni. Leggendo tra le righe, potrebbe (e sottolineo “potrebbe”, dato che non conosco niente di meglio) essere anche la tecnologia utilizzata per identificare quando si punta la fotocamera dell’iPhone 11 verso un animale domestico per un ritratto di animali domestici.
Il mondo di domani è un lavoro in corso.
Seguitemi su Twitter, o unitevi a me nei gruppi AppleHolic’s bar & grill e Apple Discussions su MeWe.