Apple construit un système d’apprentissage automatique pour les gouverner tousI

Avec Siri qui devrait connaître des améliorations significatives une fois que iOS 13 sera expédié, Apple apparaît à un salon professionnel clé de l’IA vocale et a publié une étude expliquant certains des détails d’une technologie d’apprentissage automatique (ML) première du genre qu’elle appelle « Overton ». »

Définir une fenêtre d’apprentissage automatique

Cette semaine, Apple sponsorise la plus grande conférence mondiale sur le traitement du langage parlé, Interspeech 2019.

Dans le cadre de son travail à l’événement, elle a soumis plusieurs documents de recherche – et les membres de ses équipes d’apprentissage automatique en pleine croissance y rencontreront les participants.

Entre autres sujets (voyez-les tous ici), Apple présentera des articles sur la détection de l’expression/de l’intention à travers la voix, l’amélioration de la reconnaissance vocale, le développement d’outils plus précis pour comprendre les nuances de la parole, l’utilisation du mirroring pour établir des relations entre les utilisateurs humains et les assistants vocaux et l’utilisation de la tech pour optimiser l’amélioration de la parole.

Nous pourrons en apprendre un peu plus sur ce que la société prépare dans ML sur le tout nouveau portail Youtube d’Interspeech, bien que nous ne sachions pas si des vidéos d’Apple y apparaîtront.

Il n’est pas choquant que les scientifiques d’Apple s’engagent avec la communauté scientifique au sens large. La société a publié des articles et des annonces sporadiques sur l’apprentissage automatique sur son propre portail Machine Learning depuis 2017.

Introducing Overton

Apple prétend avoir une solution inédite avec Overton – elle vise à permettre qu’une grande partie de la personnalisation des modèles ML soit administrée par la machine, et non par l’humain.

L’interaction vocale n’est que le front-end de ce qui se passe lorsque vous posez une question à Siri. Les modèles d’apprentissage automatique doivent ensuite essayer de comprendre la question, de la contextualiser et de trouver la réponse la plus précise. Fournir une réponse de haute qualité est en fait plus difficile qu’il n’y paraît.

Bien sûr, pour certaines interrogations, tout ce que vous obtiendrez de Siri sera des données qu’il aura trouvées sur une page Wikipedia, (même si dans ce cas, il aura peut-être vérifié plusieurs de ces pages pour choisir la réponse la plus pertinente). Mais l’objectif final doit être que Siri devienne une source efficace de réponses complexes à des problèmes complexes – jusqu’à les prédire.

Ces prochaines étapes sont difficiles à accomplir.

Comment les scientifiques peuvent-ils devenir plus confiants que la réponse que Siri doit faire est la plus précise disponible ?

C’est le genre de défi qu’Apple relève avec Overton, qui « automatise le cycle de vie de la construction, du déploiement et de la surveillance des modèles. »

En termes humains, cela signifie que la machine elle-même répare et ajuste les modèles d’apprentissage automatique en réponse à des stimuli externes, en les rendant plus précis et en réparant les défauts logiques qui pourraient conduire à une conclusion incorrecte. L’idée est que les humains peuvent alors se concentrer sur la supervision haut de gamme des modèles d’apprentissage automatique.

Cela signifie (je pense) que plutôt que d’avoir besoin de s’enfoncer dans un code de plus en plus complexe pour faire des ajustements mineurs mais nécessaires, les humains peuvent demander un ensemble de changements qu’Overton applique alors.

Que littéralement, ils contrôlent la fenêtre d’Overton.

Comment Apple va-t-il utiliser cela ?

Je pense que les ambitions d’Apple pour Siri vont au-delà du fait qu’il soit l’équivalent numérique de l’ami un peu inutile que vous interrogez parfois même si vous savez que vous n’obtiendrez peut-être pas de réponse utile.

Siri est destiné à être une aide vocale capable d’apporter des informations de haut niveau, une analyse contextualisée et une augmentation des tâches que vous faites déjà. Siri Suggestions montre cette direction, bien que les implémentations restent limitées.

Apple dit : « Une direction majeure du travail en cours sont les systèmes qui s’appuient sur Overton pour aider à gérer l’augmentation des données, la supervision programmatique, et la collaboration. »

Je pense aussi qu’Overton a des implications sur la vie privée des utilisateurs.

Pensez-y comme ceci:

Les scientifiques d’Apple construisent des modèles qu’ils croient être très précis. Ces modèles sont exécutés sur l’appareil iOS. Overton fournit à ces modèles un certain degré d’indépendance et les systèmes ML ajustent les modèles pour la précision et la pertinence – tout cela sans donner aux chercheurs un aperçu granulaire des actions individuelles.

Cela signifie que les gestionnaires de données (dans ce cas, les scientifiques qui créent ces modèles en premier lieu) occupent des rôles stratégiques plus généralisés dans lesquels les informations concernant les utilisateurs individuels ne sont pas mises à leur disposition.

Apple crée des machines ML pour gérer certaines tâches définies, tout en équipant les machines elles-mêmes pour personnaliser les modèles qu’elles utilisent. Cela semble être le but d’Overton – et c’est certainement une partie de ce qui a poussé Apple à acheter Silk Labs.

Apple affirme qu’Overton est le premier système de gestion de l’apprentissage automatique mis en place pour améliorer et surveiller la qualité des applications. En lisant entre les lignes, il se peut (et j’insiste sur « il se peut », car je ne connais pas mieux) qu’il s’agisse également de la technologie utilisée pour identifier le moment où vous pointez la caméra de votre iPhone 11 vers un animal de compagnie pour en faire un portrait.

Le monde de demain est un travail en cours.

Veuillez me suivre sur Twitter, ou me rejoindre dans les groupes AppleHolic’s bar &grill et Apple Discussions sur MeWe.