Warum Apple glaubt, führend in der KI zu sein, und warum es sagt, dass Kritiker alles falsch sehen

Maschinelles Lernen (ML) und künstliche Intelligenz (KI) durchdringen jetzt fast jede Funktion auf dem iPhone, aber Apple hat diese Technologien nicht so angepriesen wie einige seiner Konkurrenten. Ich wollte mehr über Apples Ansatz erfahren und habe daher eine Stunde lang mit zwei Apple-Führungskräften über die Strategie des Unternehmens gesprochen – und über die Auswirkungen all der neuen Funktionen, die auf KI und ML basieren.

In der Vergangenheit hatte Apple in der Öffentlichkeit nicht den Ruf, in diesem Bereich führend zu sein. Das liegt zum Teil daran, dass die Menschen KI mit digitalen Assistenten assoziieren, und Kritiker bezeichnen Siri häufig als weniger nützlich als Google Assistant oder Amazon Alexa. Und bei der maschinellen Intelligenz sagen viele Technikbegeisterte, dass mehr Daten bessere Modelle bedeuten – aber Apple ist nicht dafür bekannt, Daten in der gleichen Weise zu sammeln wie beispielsweise Google.

Trotzdem hat Apple in die meisten seiner Geräte spezielle Hardware für maschinelle Lernaufgaben eingebaut. Funktionen, die auf maschineller Intelligenz basieren, dominieren zunehmend die Keynotes, bei denen Apple-Führungskräfte auf der Bühne neue Funktionen für iPhones, iPads oder die Apple Watch vorstellen. Die Einführung von Macs mit Apple-Silizium im Laufe dieses Jahres wird viele der gleichen Entwicklungen im Bereich der maschinellen Intelligenz auch auf die Laptops und Desktops des Unternehmens bringen.

Im Anschluss an die Ankündigung des Apple-Siliziums sprach ich ausführlich mit John Giannandrea, Apples Senior Vice President für maschinelles Lernen und KI-Strategie, sowie mit Bob Borchers, VP of Product Marketing. Sie beschrieben die KI-Philosophie von Apple, erklärten, wie maschinelles Lernen bestimmte Funktionen antreibt, und argumentierten leidenschaftlich für Apples KI/ML-Strategie auf Geräten.

Was ist Apples KI-Strategie?

Beide, Giannandrea und Borchers, kamen in den letzten Jahren zu Apple; beide arbeiteten zuvor bei Google. Borchers ist nach einer Auszeit wieder zu Apple zurückgekehrt; er war bis 2009 Senior Director of Marketing für das iPhone. Und über Giannandreas Wechsel von Google zu Apple im Jahr 2018 wurde viel berichtet; er war Googles Leiter für KI und Suche.

Google und Apple sind ganz unterschiedliche Unternehmen. Google ist dafür bekannt, an der KI-Forschung teilzunehmen und in einigen Fällen sogar führend zu sein, während Apple früher den Großteil seiner Arbeit hinter verschlossenen Türen erledigte. Das hat sich in den letzten Jahren geändert, da das maschinelle Lernen zahlreiche Funktionen in Apples Geräten unterstützt und Apple sein Engagement in der KI-Gemeinschaft verstärkt hat.

„Als ich zu Apple kam, war ich bereits iPad-Nutzer und liebte den Pencil“, erzählte mir Giannandrea (der von seinen Kollegen „J.G.“ genannt wird). „Ich habe also die Software-Teams ausfindig gemacht und gefragt: ‚Okay, wo ist das Team für maschinelles Lernen, das sich mit Handschrift beschäftigt?‘ Und ich konnte es nicht finden.“ Es stellte sich heraus, dass das Team, das er suchte, nicht existierte – eine Überraschung, wie er sagt, wenn man bedenkt, dass maschinelles Lernen heute eines der besten Werkzeuge für diese Funktion ist.

„Ich wusste, dass es so viel maschinelles Lernen gab, das Apple machen sollte, dass es überraschend war, dass nicht alles tatsächlich gemacht wurde. Und das hat sich in den letzten zwei bis drei Jahren dramatisch geändert“, sagte er. „Ich glaube wirklich, dass es keinen Bereich von iOS oder Apple-Erfahrungen gibt, der in den nächsten Jahren nicht durch maschinelles Lernen verändert wird.“

Mehr anzeigen

Ich fragte Giannandrea, warum er das Gefühl hatte, dass Apple der richtige Ort für ihn war. Seine Antwort war zugleich eine kurze Zusammenfassung der KI-Strategie des Unternehmens:

Ich denke, dass Apple schon immer für die Schnittmenge von Kreativität und Technologie stand. Und ich denke, wenn man darüber nachdenkt, intelligente Erlebnisse zu schaffen, ist eine vertikale Integration, von den Anwendungen über die Frameworks bis hin zum Silizium, wirklich wichtig… Ich denke, es ist eine Reise, und ich glaube, dass die Zukunft der Computergeräte, die wir haben, darin besteht, dass sie intelligent sind und dass die Intelligenz irgendwie verschwindet.“

Auch Borchers meldete sich zu Wort und fügte hinzu: „Das ist ganz klar unser Ansatz, bei allem, was wir tun: ‚Wir konzentrieren uns auf den Nutzen, nicht darauf, wie wir dorthin gekommen sind.‘ Und in den besten Fällen wird es automatisch. Es verschwindet… und man konzentriert sich einfach darauf, was passiert ist, im Gegensatz dazu, wie es passiert ist.“

Wiederum auf das Handschrift-Beispiel angesprochen, argumentierte Giannandrea, dass Apple am besten positioniert ist, um „die Branche anzuführen“, wenn es darum geht, maschinenintelligenzgesteuerte Funktionen und Produkte zu entwickeln:

Wir haben den Pencil gemacht, wir haben das iPad gemacht, wir haben die Software für beide gemacht. Es sind einfach einzigartige Gelegenheiten, einen wirklich, wirklich guten Job zu machen. Was machen wir wirklich gut? Jemandem die Möglichkeit zu geben, Notizen zu machen und mit seinen kreativen Gedanken auf digitalem Papier produktiv zu sein. Was mich interessiert, ist, wie diese Erfahrungen in großem Maßstab in der Welt genutzt werden können.“

Er verglich dies mit Google. „Google ist ein großartiges Unternehmen, und es arbeiten dort einige wirklich großartige Technologen“, sagte er. „Aber ihr Geschäftsmodell ist grundlegend anders, und sie sind nicht dafür bekannt, Kundenerfahrungen zu liefern, die von Hunderten von Millionen Menschen genutzt werden.“

Wie setzt Apple heute maschinelles Lernen ein?

Apple hat es sich zur Gewohnheit gemacht, in seinen jüngsten Marketing-Präsentationen das maschinelle Lernen für die Verbesserung einiger Funktionen des iPhones, der Apple Watch oder des iPads zu loben, geht dabei aber selten ins Detail – und die meisten Leute, die ein iPhone kaufen, haben diese Präsentationen ohnehin nie gesehen. Im Gegensatz dazu steht beispielsweise Google, das KI in den Mittelpunkt vieler seiner Mitteilungen an die Verbraucher stellt.

Es gibt zahlreiche Beispiele für maschinelles Lernen, die in Apples Software und Geräten eingesetzt werden, die meisten davon erst in den letzten paar Jahren.

Maschinelles Lernen wird verwendet, um der Software des iPads zu helfen, zwischen einem Benutzer, der beim Zeichnen mit dem Apple Pencil versehentlich seine Handfläche gegen den Bildschirm drückt, und einem absichtlichen Druck zu unterscheiden, der eine Eingabe liefern soll. Es wird verwendet, um die Nutzungsgewohnheiten der Benutzer zu überwachen, um die Lebensdauer der Gerätebatterie und das Aufladen zu optimieren, um die Zeit zwischen den Ladevorgängen zu verlängern und die langfristige Lebensdauer der Batterie zu schützen. Es wird verwendet, um App-Empfehlungen zu geben.

Werbung

Und dann ist da noch Siri, das vielleicht das Einzige ist, was jeder iPhone-Benutzer sofort als künstliche Intelligenz wahrnehmen würde. Das maschinelle Lernen steuert mehrere Aspekte von Siri, von der Spracherkennung bis hin zu den Versuchen von Siri, nützliche Antworten zu geben.

Versierte iPhone-Besitzer werden vielleicht auch bemerken, dass das maschinelle Lernen hinter der Fähigkeit der Fotos-App steckt, Bilder automatisch in vorgefertigte Galerien zu sortieren oder Ihnen genau die Fotos einer Freundin namens Jane zu zeigen, wenn ihr Name in das Suchfeld der App eingegeben wird.

In anderen Fällen werden nur wenige Benutzer erkennen, dass maschinelles Lernen am Werk ist. So kann Ihr iPhone beispielsweise bei jedem Druck auf den Auslöser mehrere Bilder in schneller Folge aufnehmen. Ein mit maschinellem Lernen trainierter Algorithmus analysiert dann jedes Bild und kann das, was er für die besten Teile jedes Bildes hält, zu einem Ergebnis zusammensetzen.

KI steckt hinter Apples Handwaschhilfe-Funktion in der Apple Watch.
Vergrößern / KI steckt hinter Apples Handwaschhilfe-Funktion in der Apple Watch.
Sam Machkovech

Mobiltelefone enthalten seit langem Bildsignalprozessoren (ISP), um die Qualität von Fotos digital und in Echtzeit zu verbessern, aber Apple hat diesen Prozess 2018 beschleunigt, indem der ISP im iPhone eng mit der Neural Engine zusammenarbeitet, dem kürzlich hinzugefügten, auf maschinelles Lernen fokussierten Prozessor des Unternehmens.

Ich bat Giannandrea, einige der Möglichkeiten zu nennen, wie Apple maschinelles Lernen in seiner aktuellen Software und seinen Produkten einsetzt. Er nannte eine ganze Reihe von Beispielen:

Es gibt eine ganze Reihe von neuen Erfahrungen, die durch maschinelles Lernen unterstützt werden. Und das sind Dinge wie Sprachübersetzung oder Diktieren auf dem Gerät oder unsere neuen Funktionen rund um die Gesundheit, wie Schlaf und Händewaschen, und Dinge, die wir in der Vergangenheit rund um die Herzgesundheit und solche Dinge veröffentlicht haben. Ich denke, es gibt immer weniger Stellen in iOS, an denen wir kein maschinelles Lernen einsetzen.

Es ist schwer, einen Bereich zu finden, in dem man keine Vorhersagen macht. Zum Beispiel App-Vorhersagen oder Tastaturvorhersagen, oder moderne Smartphone-Kameras machen eine Menge maschinelles Lernen hinter den Kulissen, um herauszufinden, was sie „Salienz“ nennen, also was der wichtigste Teil des Bildes ist. Oder wenn man sich vorstellt, dass man den Hintergrund unscharf macht, dann macht man den Porträtmodus.

All diese Dinge profitieren von den Kernfunktionen des maschinellen Lernens, die in die Apple-Plattform eingebaut sind. Es ist also fast so, als würde man sagen: „Finde etwas, bei dem wir kein maschinelles Lernen verwenden.“

Borchers wies auch auf Barrierefreiheitsfunktionen als wichtige Beispiele hin. „Sie werden dadurch grundlegend verfügbar und möglich gemacht“, sagte er. „Dinge wie die Fähigkeit zur Geräuscherkennung, die für diese spezielle Gemeinschaft bahnbrechend ist, wird durch die Investitionen im Laufe der Zeit und die eingebauten Funktionen ermöglicht.“

Weiterhin haben Sie vielleicht bemerkt, dass Apples Software- und Hardware-Updates in den letzten Jahren einen Schwerpunkt auf Augmented-Reality-Funktionen gelegt haben. Die meisten dieser Funktionen sind dank maschinellem Lernen möglich geworden. Per Giannandrea:

Maschinelles Lernen wird in der erweiterten Realität häufig eingesetzt. Das schwierige Problem dabei ist, was man SLAM nennt, also Simultaneous Localization And Mapping. Man versucht also zu verstehen, was man sieht, wenn man ein iPad mit einem Lidar-Scanner daran hat und sich bewegt. Und ein 3D-Modell von dem zu erstellen, was es tatsächlich sieht.

Dafür wird heute Deep Learning eingesetzt, und man muss in der Lage sein, das auf dem Gerät zu machen, weil man es in Echtzeit machen will. Es würde keinen Sinn machen, wenn man mit dem iPad herumfuchtelt und das dann vielleicht im Rechenzentrum machen muss. Generell würde ich sagen, dass uns insbesondere Deep Learning die Möglichkeit gibt, von Rohdaten zu semantischen Informationen über diese Daten zu gelangen.

Apple führt maschinelle Lernaufgaben zunehmend lokal auf dem Gerät aus, auf Hardware wie der Apple Neural Engine (ANE) oder auf den eigens entwickelten GPUs (Graphics Processing Units) des Unternehmens. Giannandrea und Borchers argumentierten, dass dieser Ansatz Apples Strategie von der der Wettbewerber unterscheidet.

Warum auf dem Gerät?

Sowohl Giannandrea als auch Borchers argumentierten in unserem Gespräch leidenschaftlich, dass die Funktionen, die wir gerade besprochen haben, möglich sind, weil – und nicht trotz – der Tatsache, dass die gesamte Arbeit lokal auf dem Gerät erledigt wird.

Es gibt eine verbreitete Ansicht, die maschinelles Lernen auf die Idee reduziert, dass mehr Daten bessere Modelle bedeuten, was wiederum bessere Benutzererfahrungen und Produkte bedeutet. Das ist einer der Gründe, warum Beobachter oft auf Google, Amazon oder Facebook als wahrscheinliche Herrscher über die KI-Bühne verweisen. Diese Unternehmen betreiben riesige Datensammelmaschinen, zum Teil weil sie einen vollständigen Einblick in die digitale Infrastruktur haben, die für einen Großteil der Welt wichtig geworden ist. Nach diesem Maßstab wird Apple von einigen als unwahrscheinlich angesehen, weil sein Geschäftsmodell anders ist und es sich öffentlich verpflichtet hat, seine Datenerfassung einzuschränken.

Als ich Giannandrea diese Perspektiven darlegte, hielt er sich nicht zurück:

Ja, ich verstehe diese Wahrnehmung, dass größere Modelle in Datenzentren irgendwie genauer sind, aber sie ist eigentlich falsch. Es ist sogar technisch falsch. Es ist besser, das Modell in der Nähe der Daten laufen zu lassen, als die Daten zu verschieben. Egal, ob es sich um Standortdaten handelt, wie z. B. „Was machen Sie gerade?“ oder „Was macht der Beschleunigungsmesser in Ihrem Telefon?“ – es ist einfach besser, nahe an der Datenquelle zu sein, und so wird auch die Privatsphäre gewahrt.

Borchers und Giannandrea wiesen beide wiederholt auf die Auswirkungen der Arbeit in einem Rechenzentrum auf die Privatsphäre hin, aber Giannandrea sagte, dass es bei der lokalen Verarbeitung auch um die Leistung geht.

„Einer der anderen großen Punkte ist die Latenzzeit“, sagte er. „Wenn man etwas an ein Rechenzentrum sendet, ist es wirklich schwer, etwas mit Bildrate zu machen. Wir haben viele Apps im App Store, die z. B. Posenschätzungen durchführen, um herauszufinden, wie sich eine Person bewegt, und um zu erkennen, wo sich z. B. ihre Beine und Arme befinden. Das ist eine High-Level-API, die wir anbieten.

Werbung

Er nannte ein weiteres Anwendungsbeispiel für Verbraucher:

Sie machen ein Foto, und in den Momenten, bevor Sie ein Foto mit der Kamera machen, sieht die Kamera alles in Echtzeit. Sie kann Ihnen helfen, eine Entscheidung darüber zu treffen, wann Sie ein Foto machen. Wenn Sie diese Entscheidung auf dem Server treffen wollten, müssten Sie jedes einzelne Bild an den Server senden, um zu entscheiden, wie das Foto aufgenommen werden soll. Das macht doch keinen Sinn, oder? Es gibt also eine ganze Reihe von Erfahrungen, die man besser auf dem Edge-Gerät machen sollte.

Auf die Frage, wie Apple entscheidet, wann etwas auf dem Gerät gemacht wird, war Giannandreas Antwort sehr einfach: „Wenn wir die Qualität dessen, was wir auf dem Server machen können, erreichen oder übertreffen können.“

Als Voraussetzung für diese geräteinterne Verarbeitung nannten die beiden Apple-Manager das Apple-eigene Silizium, insbesondere die Apple Neural Engine (ANE), die seit dem iPhone 8 und iPhone X in iPhones enthalten ist. Die Neural Engine ist eine neuronale Verarbeitungseinheit (NPU) mit acht Kernen, die Apple für bestimmte Arten von maschinellen Lernaufgaben entwickelt hat.

Werbung

„Es ist eine mehrjährige Reise, weil die Hardware vor fünf Jahren noch nicht verfügbar war, um dies am Rand zu tun“, sagte Giannandrea. „Das ANE-Design ist vollständig skalierbar. Es gibt eine größere ANE in einem iPad als in einem Telefon, als in einer Apple Watch, aber die CoreML-API-Schicht für unsere Apps und auch für Entwickler-Apps ist im Grunde über die gesamte Produktlinie gleich.“

Wenn Apple öffentlich über die Neural Engine gesprochen hat, hat das Unternehmen Leistungszahlen genannt, wie 5 Billionen Operationen pro Sekunde im A12-Chip von 2018. Aber es hat sich nicht über die Architektur des Chips geäußert. Es ist buchstäblich eine Blackbox auf den Folien in Apples Präsentationen.

Apples Neural Engine auf der Präsentationsbühne.
Apples Neural Engine auf der Präsentationsbühne.

Deshalb wollte ich wissen, ob Giannandrea mehr Licht darauf werfen würde, wie die Neural Engine unter der Haube funktioniert, aber er lehnte es ab, ins Detail zu gehen. Stattdessen sagte er, dass App-Entwickler alles, was sie wissen müssen, von CoreML erfahren können – einer Softwareentwicklungs-API, die Entwicklern Zugang zu den maschinellen Lernfähigkeiten des iPhones verschafft.

Die CoreML-Entwickler-API umreißt sehr klar die Arten von maschinellen Lernmodellen, Laufzeitmodellen, die wir unterstützen… Wir haben eine wachsende Anzahl von Kernels, die wir unterstützen. Und Sie zielen auf CoreML von einem der populären maschinellen Lernprogramme wie PyTorch oder TensorFlow ab, und dann kompilieren Sie im Wesentlichen Ihr Modell und geben es an CoreML.

CoreMLs Aufgabe ist es, herauszufinden, wo das Modell laufen soll. Es kann sein, dass es das Richtige ist, das Modell auf ANE laufen zu lassen, aber es kann auch das Richtige sein, das Modell auf der GPU oder auf der CPU laufen zu lassen. Und unsere CPU verfügt ebenfalls über Optimierungen für maschinelles Lernen.

Im Laufe unseres Gesprächs verwiesen beide Führungskräfte sowohl auf die Apps von Drittanbietern als auch auf die von Apple selbst. Die Strategie besteht nicht nur darin, die von Apple entwickelten Dienste und Funktionen voranzutreiben, sondern auch darin, zumindest einen Teil dieser Fähigkeiten für die große Gemeinschaft der Entwickler zu öffnen. Seit der Eröffnung des App Store im Jahr 2008 verlässt sich Apple bei der Entwicklung von Innovationen für seine Plattformen auf Entwickler. Das Unternehmen leiht sich oft Ideen dieser Entwickler, wenn es seine eigenen, intern entwickelten Apps aktualisiert.

Die Geräte von Apple sind natürlich nicht die einzigen, in denen Chips für maschinelles Lernen eingebaut sind. Samsung, Huawei und Qualcomm haben zum Beispiel NPUs in ihre System-on-a-Chip-Geräte eingebaut. Und auch Google bietet Entwicklern APIs für maschinelles Lernen an. Dennoch unterscheiden sich die Strategie und das Geschäftsmodell von Google deutlich. Android-Telefone führen nicht annähernd so viele Aufgaben des maschinellen Lernens lokal aus.

Macs mit Apple-Silizium

Im Mittelpunkt meines Interviews mit Giannandrea und Borchers stand nicht die große Ankündigung, die das Unternehmen auf der WWDC vor ein paar Wochen gemacht hat – die bevorstehende Einführung von Macs mit Apple-Silizium. Aber als ich spekulierte, dass einer von Apples vielen Gründen für die Entwicklung von Macs mit eigenen Chips die Einbeziehung der Neural Engine sein könnte, sagte Borchers:

Wir werden zum ersten Mal eine gemeinsame Plattform haben, eine Silizium-Plattform, die unterstützen kann, was wir tun wollen und was unsere Entwickler tun wollen…. Diese Fähigkeit wird einige interessante Dinge freisetzen, die wir uns vorstellen können, aber, was wahrscheinlich noch wichtiger ist, sie wird viele Dinge für andere Entwickler freisetzen, während sie sich weiterentwickeln.

Der erste Mac mit Apple-Silizium, technisch: das Developer Transition Kit.
Vergrößern / Der erste Mac mit Apple-Silizium, technisch: das Developer Transition Kit.
Sam Machkovech

Giannandrea nannte ein konkretes Beispiel dafür, wie Apples Tools und Hardware für maschinelles Lernen auf dem Mac eingesetzt werden sollen:

Ich weiß nicht, ob Sie die Demo in der Rede zur Lage der Nation gesehen haben, aber im Grunde war die Idee: Bei einem Video kann man das Video Bild für Bild durchgehen und Objekte erkennen. Und das geht auf unserem Silizium um mehr als eine Größenordnung schneller als auf der alten Plattform.

Und dann sagen Sie: „Nun, das ist interessant. Aber warum ist das nützlich?“ Stellen Sie sich einen Video-Editor vor, in dem Sie ein Suchfeld haben und sagen können: „Such mir die Pizza auf dem Tisch.“ Und es würde einfach zu diesem Bild gescrubbt… Das sind die Arten von Erfahrungen, die die Leute meiner Meinung nach entwickeln werden. Wir wünschen uns sehr, dass Entwickler diese Frameworks nutzen und uns damit überraschen, was sie tatsächlich damit anstellen können.

Apple sagte auf seiner Entwicklerkonferenz, dass es plant, Macs mit eigenem Silizium auszuliefern, und zwar noch in diesem Jahr.

Was ist mit dem Datenschutz?

Der Datenschutz stand in den letzten Jahren immer wieder im Mittelpunkt von Apples Mitteilungen an die Nutzer. Es wird immer wieder in Keynotes und Marketingmaterialien erwähnt, es gibt Hinweise darauf in iOS, und es kommt oft in Interviews zur Sprache – so auch in diesem Fall.

„Die Leute sind besorgt über KI im Allgemeinen, weil sie nicht wissen, was sie ist“, sagte Giannandrea mir. „Sie glauben, dass sie leistungsfähiger ist, als sie ist, oder sie denken an diese Sci-Fi-Ansicht von KI, und es gibt einflussreiche Leute wie Bill Gates und Elon Musk und andere, die sagen, dass dies eine gefährliche Technologie ist.“

Er glaubt, dass der Hype um KI von anderen großen Technologieunternehmen eher negativ als positiv für die Marketingbemühungen dieser Unternehmen ist, „weil die Leute sich Sorgen um diese Technologie machen.“

Der Begriff „KI“ ist hier vielleicht nicht hilfreich. Er erinnert an bösartige synthetische Bösewichte aus der Popkultur, wie Skynet oder HAL 9000. Aber die meisten Experten für angewandte künstliche Intelligenz werden Ihnen sagen, dass dieses düstere Ergebnis weit von der Realität entfernt ist. Von maschinellem Lernen angetriebene Technik birgt viele Risiken – zum Beispiel die Übernahme und Verstärkung menschlicher Vorurteile -, aber dass sie abtrünnig wird und die Menschheit gewaltsam angreift, scheint in der unmittelbaren Zukunft unwahrscheinlich.

Werbung

Maschinelles Lernen macht Maschinen nicht wirklich auf die gleiche Weise intelligent wie Menschen. Aus diesem und anderen Gründen haben viele KI-Experten (darunter auch Giannandrea) alternative Begriffe wie „maschinelle Intelligenz“ vorgeschlagen, die keine Parallelen zur menschlichen Intelligenz aufweisen.

Ungeachtet der Nomenklatur kann das maschinelle Lernen eine sehr reale und gegenwärtige Gefahr mit sich bringen: die Untergrabung der Privatsphäre der Nutzer. Einige Unternehmen sammeln aggressiv persönliche Daten von Nutzern und laden sie in Datenzentren hoch, wobei sie maschinelles Lernen und Training als Rechtfertigung verwenden.

Wie bereits erwähnt, führt Apple einen Großteil dieser Sammlung und Verarbeitung lokal auf dem Gerät des Nutzers durch. Giannandrea hat diese Entscheidung ausdrücklich mit Datenschutzbedenken in Verbindung gebracht. „Ich denke, dass wir eine sehr klare Position dazu haben, nämlich dass wir diese fortschrittliche Technologie des maschinellen Lernens in so vielen Fällen wie möglich auf Ihrem Gerät durchführen werden, und dass die Daten Ihr Gerät nicht verlassen werden“, sagte er. „Wir haben eine sehr klare Aussage darüber, warum wir glauben, dass unsere Geräte sicherer oder besser sind oder vertrauenswürdiger sein sollten.“

Werbung

Er verwendete Text-to-Speech als konkretes Beispiel für diese Philosophie in Aktion:

Wenn Sie etwas sagen wie: „Lesen Sie mir meine Nachrichten von Bob vor.“ Die Synthese des Textes in Sprache findet auf dem Gerät statt, auf der Neural Engine – der Kombination aus Neural Engine und CPU. Aus diesem Grund haben wir den Inhalt Ihrer Nachricht von Bob nie gesehen, da Ihr Telefon die Nachricht vorliest – nicht die Server, die sie vorlesen. Der Inhalt der Nachricht ist also nie zum Server gelangt…

Das ist also ein großartiges Beispiel für eine fortschrittliche Technologie, die sowohl den Nutzwert für den Anwender verbessert, weil die Stimme auf dem Gerät synthetisiert wird, so dass sie auch dann noch funktioniert, wenn die Verbindung unterbrochen ist. Aber es geht auch um den Datenschutz. Es ist wirklich schwer zu machen. Es wurde viel Entwicklungsarbeit geleistet, um eine moderne, qualitativ hochwertige Sprachsynthese auf einem Gerät zu ermöglichen, das man in die Tasche stecken kann.

Natürlich müssen in vielen Fällen einige Nutzerdaten für maschinelles Lernen verwendet werden. Wie genau nutzt Apple also die Nutzerdaten, die es verarbeitet? Giannandrea erklärt:

Generell haben wir zwei Möglichkeiten, Modelle zu erstellen. Die eine ist, dass wir Daten sammeln und beschriften, was in vielen Fällen sinnvoll ist. Und dann gibt es noch den Fall, dass wir die Nutzer bitten, ihre Daten zu spenden. Das bekannteste Beispiel dafür ist Siri, wo wir bei der Einrichtung eines iPhones fragen: „Möchten Sie uns helfen, Siri zu verbessern?“

Das ist ein Fall, in dem uns eine gewisse Menge an Daten gespendet wird, von denen dann ein sehr kleiner Prozentsatz für das Training verwendet wird. Aber bei vielen, vielen Dingen, über die wir hier sprechen, wie zum Beispiel Handschrift, können wir genug Daten sammeln, um das Modell so zu trainieren, dass es mit der Handschrift von praktisch jedem Menschen funktioniert, ohne dass wir überhaupt irgendwelche Verbraucherdaten verwenden müssen.

Einige dieser Aufforderungen, Ihre Daten zu verwenden, wurden erst kürzlich hinzugefügt. Letzten Sommer wurde berichtet, dass Siri aufzeichnete, was Nutzer nach versehentlicher Aktivierung sagten; Auftragnehmer, die mit der Qualitätssicherung der Siri-Funktionalität beauftragt waren, hörten einige dieser Aufnahmen.

Apple reagierte darauf, indem es sich verpflichtete, Siri-bezogene Audiodaten nur dann zu speichern, wenn die Nutzer ausdrücklich zugestimmt hatten, Siri durch die Weitergabe von Aufnahmen zu verbessern (dieses Verhalten wurde in iOS 13.2 eingeführt), und brachte dann die gesamte Qualitätssicherung ins Haus. Ich habe gefragt, was Apple mit diesen Daten anders macht als die Auftragnehmer. Giannandrea antwortete:

Wir haben eine Menge Sicherheitsvorkehrungen. Es gibt zum Beispiel einen Prozess, um festzustellen, ob die Audiodaten für den Assistenten bestimmt waren oder nicht, was völlig unabhängig von dem Prozess ist, mit dem die Audiodaten tatsächlich überprüft werden. Wir unternehmen also intern eine Menge, um sicherzustellen, dass wir keine versehentlichen Aufnahmen machen und diese dann verwerfen.

Aber wenn Sie nicht bereit sind, die Funktion tatsächlich zu prüfen, werden Sie die versehentlichen Aufnahmen niemals verbessern können. Wie Sie wissen, erfordert maschinelles Lernen, dass man es ständig verbessert. Deshalb haben wir viele unserer Arbeitsabläufe und Prozesse überarbeitet, als wir die Arbeit ins Haus holten. Ich bin sehr zuversichtlich, dass wir einen der besten Prozesse haben, um den Assistenten unter Wahrung der Privatsphäre zu verbessern.

Es ist klar, dass Apple den Schutz der Privatsphäre als Schlüsselmerkmal in seinen Geräten vorantreiben will; von Giannandrea kam dies als echte Überzeugung rüber. Aber es könnte Apple auch auf dem Markt helfen, da sein größter Konkurrent im mobilen Bereich eine weitaus schlechtere Erfolgsbilanz in Bezug auf den Datenschutz vorweisen kann, und das lässt eine Lücke offen, da sich die Nutzer mehr und mehr Sorgen über die Auswirkungen von KI auf den Datenschutz machen.

Im Laufe unseres Gesprächs kamen sowohl Giannandrea als auch Borchers auf zwei Punkte von Apples Strategie zurück: 1) es ist leistungsfähiger, Aufgaben des maschinellen Lernens lokal auszuführen, und 2) es ist „datenschutzfreundlicher“ – eine spezifische Formulierung, die Giannandrea in unserem Gespräch ein paar Mal wiederholte – dies zu tun.

Inside the black box

Nachdem Apple lange Zeit hauptsächlich im Verborgenen an KI-Funktionen gearbeitet hat, hat das Unternehmen in den letzten Jahren sein Engagement für maschinelles Lernen stark ausgeweitet.

Das Unternehmen publiziert regelmäßig, sponsert Akademiker, hat Stipendien, sponsert Labore und nimmt an KI/ML-Konferenzen teil. Vor kurzem hat es einen Blog über maschinelles Lernen gestartet, in dem es einige seiner Forschungsergebnisse veröffentlicht. Das Unternehmen hat auch viele neue Mitarbeiter eingestellt, darunter auch Giannandrea selbst vor zwei Jahren.

Werbung

Das Unternehmen ist in der Forschungsgemeinschaft nicht so führend wie Google, aber Apple ist zumindest führend, wenn es darum geht, die Früchte des maschinellen Lernens mehr Nutzern zugänglich zu machen.

Erinnern Sie sich noch daran, als Giannandrea sagte, er sei überrascht, dass maschinelles Lernen nicht für die Handschrift mit dem Pencil verwendet wurde? Er fuhr fort, die Gründung des Teams zu beobachten, das dies möglich machte. Gemeinsam mit anderen Teams haben sie die Handschrift mit maschinellem Lernen weiterentwickelt – ein Eckpfeiler von iPadOS 14.

„Wir haben viele großartige Experten für maschinelles Lernen bei Apple, und wir stellen sie immer wieder ein“, sagte Gianandrea. „Ich finde es sehr einfach, Weltklasse-Leute für Apple zu gewinnen, weil es in unseren Produkten immer offensichtlicher wird, dass maschinelles Lernen entscheidend für die Erfahrungen ist, die wir für die Nutzer schaffen wollen.“

Nach einer kurzen Pause fügte er hinzu: „Ich schätze, das größte Problem, das ich habe, ist, dass viele unserer ehrgeizigsten Produkte diejenigen sind, über die wir nicht sprechen können, und so ist es eine kleine Verkaufsherausforderung, jemandem zu sagen: ‚Komm und arbeite an der ehrgeizigsten Sache überhaupt, aber ich kann dir nicht sagen, was es ist.'“

Werbung

Wenn man großen Technologieunternehmen und Risikokapitalinvestitionen Glauben schenkt, werden KI und maschinelles Lernen in den kommenden Jahren nur noch allgegenwärtiger werden. Wie auch immer die Entwicklung verlaufen wird, Giannandrea und Borchers machten eines deutlich: Maschinelles Lernen spielt jetzt eine Rolle bei vielen Apple-Produkten und bei vielen Funktionen, die Verbraucher täglich nutzen. Und mit der Neural Engine, die ab diesem Herbst für Macs verfügbar sein wird, wird die Rolle des maschinellen Lernens bei Apple wahrscheinlich weiter wachsen.