Apple baut ein maschinelles Lernsystem, das sie alle beherrscht

Da Siri nach der Veröffentlichung von iOS 13 erhebliche Verbesserungen erfahren soll, tritt Apple auf einer wichtigen Messe für Sprach-KI auf und hat eine Studie veröffentlicht, in der einige Details der ersten maschinellen Lerntechnologie (ML) namens „Overton“ erläutert werden.“

Definieren eines Fensters für maschinelles Lernen

In dieser Woche sponsert Apple die weltweit größte Konferenz zur Verarbeitung gesprochener Sprache, die Interspeech 2019.

Als Teil seiner Arbeit auf der Veranstaltung hat Apple mehrere Forschungspapiere eingereicht – und Mitglieder seines wachsenden Teams für maschinelles Lernen werden dort Teilnehmer treffen.

Neben anderen Themen (alle hier) wird Apple Vorträge über die Erkennung von Ausdruck/Intention durch Sprache, die Verbesserung der Spracherkennung, die Entwicklung genauerer Werkzeuge zum Verstehen von Sprachnuancen, die Verwendung von Mirroring zum Aufbau von Beziehungen zwischen menschlichen Nutzern und Sprachassistenten und den Einsatz von Technologie zur Optimierung der Sprachverbesserung halten.

Auf dem neuen Interspeech-Youtube-Portal erfahren wir vielleicht ein wenig mehr darüber, was das Unternehmen im Bereich ML vorhat, obwohl wir nicht wissen, ob dort irgendwelche Apple-Videos erscheinen werden.

Es ist kein Schock, dass sich Apples Wissenschaftler mit der breiteren wissenschaftlichen Gemeinschaft auseinandersetzen. Das Unternehmen hat seit 2017 sporadisch Papiere und Ankündigungen zum maschinellen Lernen auf seinem eigenen Portal für maschinelles Lernen veröffentlicht.

Einführung in Overton

Apple behauptet, mit Overton eine einzigartige Lösung zu haben – sie soll es ermöglichen, dass ein Großteil der Personalisierung von ML-Modellen von der Maschine und nicht vom Menschen verwaltet wird.

Die Sprachinteraktion ist nur das Frontend dessen, was passiert, wenn Sie Siri eine Frage stellen. Die maschinellen Lernmodelle müssen dann versuchen, die Frage zu verstehen, sie in einen Kontext zu setzen und eine möglichst genaue Antwort zu finden. Eine qualitativ hochwertige Antwort zu geben, ist schwieriger, als es scheint.

Sicherlich wird Siri bei einigen Fragen nur Daten liefern, die sie auf einer Wikipedia-Seite gefunden hat (aber selbst dann hat sie vielleicht mehrere solcher Seiten überprüft, um die relevanteste Antwort auszuwählen). Aber das Ziel muss sein, dass Siri zu einer effektiven Quelle für komplexe Antworten auf komplexe Probleme wird – bis hin zu deren Vorhersage.

Diese nächsten Schritte sind schwer zu erreichen.

Wie können Wissenschaftler sicherer werden, dass die Antwort, die Siri geben muss, die genaueste ist?

Das ist die Art von Herausforderung, die Apple mit Overton angeht, das „den Lebenszyklus der Modellerstellung, -bereitstellung und -überwachung automatisiert“

In menschlichen Begriffen bedeutet das, dass die Maschine selbst maschinelle Lernmodelle als Reaktion auf externe Reize korrigiert und anpasst, um sie genauer zu machen und logische Fehler zu beheben, die zu einer falschen Schlussfolgerung führen könnten. Die Idee ist, dass der Mensch sich dann auf die High-End-Überwachung von maschinellen Lernmodellen konzentrieren kann.

Das bedeutet (denke ich), dass der Mensch nicht mehr tief in den immer komplexeren Code eindringen muss, um kleine, aber notwendige Anpassungen vorzunehmen, sondern eine Reihe von Änderungen anfordern kann, die Overton dann anwendet.

Ganz wörtlich, sie kontrollieren das Overton-Fenster.

Wie wird Apple das nutzen?

Ich denke, Apples Ambitionen für Siri gehen darüber hinaus, das digitale Äquivalent des etwas nutzlosen Freundes zu sein, den man manchmal fragt, obwohl man weiß, dass man vielleicht keine nützliche Antwort bekommt.

Siri soll ein sprachgesteuerter Helfer sein, der in der Lage ist, Informationen auf hohem Niveau zu liefern, kontextbezogene Analysen vorzunehmen und die Aufgaben zu erweitern, die Sie bereits erledigen. Siri Suggestions weist in diese Richtung, auch wenn die Implementierungen noch begrenzt sind.

Apple sagt: „Eine wichtige Richtung der laufenden Arbeit sind die Systeme, die auf Overton aufbauen, um bei der Verwaltung der Datenerweiterung, der programmatischen Überwachung und der Zusammenarbeit zu helfen.“

Ich denke auch, dass Overton Auswirkungen auf die Privatsphäre der Nutzer hat.

Stellen Sie sich das so vor:

Apples Wissenschaftler erstellen Modelle, von denen sie glauben, dass sie sehr genau sind. Diese Modelle laufen auf dem iOS-Gerät. Overton stattet diese Modelle mit einem gewissen Grad an Unabhängigkeit aus, und ML-Systeme passen die Modelle an Genauigkeit und Relevanz an – und das alles, ohne den Forschern einen detaillierten Einblick in individuelle Handlungen zu geben.

Das bedeutet, dass Datenmanager (in diesem Fall die Wissenschaftler, die diese Modelle überhaupt erst erstellen) allgemeinere strategische Rollen einnehmen, in denen ihnen keine Informationen über einzelne Nutzer zur Verfügung gestellt werden.

Apple erstellt ML-Maschinen, um bestimmte definierte Aufgaben zu erledigen, und stattet die Maschinen selbst so aus, dass sie die von ihnen verwendeten Modelle personalisieren. Dies scheint das Ziel von Overton zu sein – und war sicherlich ein Grund für den Kauf von Silk Labs durch Apple.

Apple sagt, dass Overton das erste Management-System für maschinelles Lernen ist, das die Qualität von Anwendungen verbessert und überwacht. Wenn man zwischen den Zeilen liest, könnte es (ich betone „könnte“, da ich es nicht besser weiß) auch die Technologie sein, die verwendet wird, um zu erkennen, wenn man die Kamera des iPhone 11 auf ein Haustier richtet, um ein Haustierporträt zu machen.

Die Welt von morgen ist ein unfertiges Produkt.

Bitte folgen Sie mir auf Twitter, oder schließen Sie sich mir in der AppleHolic’s bar & Grill- und Apple-Diskussionsgruppe auf MeWe an.