Apple er ved at opbygge et maskinlæringssystem, der skal herske over dem alle

Med Siri, der skal forbedres betydeligt, når iOS 13 kommer på markedet, deltager Apple på en vigtig messe for stemme-AI og har offentliggjort en undersøgelse, der forklarer nogle af detaljerne i den første af sin slags maskinlæringsteknologi (ML), som Apple kalder “Overton”.”

Definering af et vindue for maskinlæring

I denne uge sponsorerer Apple verdens største konference om behandling af talesprog, Interspeech 2019.

Som en del af sit arbejde ved begivenheden har Apple indsendt flere forskningsartikler – og medlemmer af dets voksende maskinlæringsteams vil møde deltagerne der.

Men blandt andre emner (se dem alle her) vil Apple præsentere artikler om detektering af udtryk/intention gennem stemmen, forbedring af stemmegenkendelse, udvikling af mere præcise værktøjer til at forstå talebrud, brug af spejling til at opbygge relationer mellem menneskelige brugere og taleassistenter og brug af teknologi til at optimere taleforbedring.

Vi kan få lidt mere at vide om, hvad virksomheden har gang i i i ML på den helt nye Interspeech Youtube-portal, selv om vi ikke ved, om der vil blive vist Apple-videoer der.

Det er ikke et chok, at Apples videnskabsfolk engagerer sig i det bredere videnskabelige samfund. Virksomheden har siden 2017 offentliggjort sporadiske artikler og meddelelser om maskinlæring på sin egen portal for maskinlæring.

Introduktion af Overton

Apple hævder at have en første løsning af sin art med Overton – den har til formål at gøre det muligt for en stor del af personaliseringen af ML-modeller at blive administreret af maskinen, ikke af mennesket.

Stemmeinteraktion er kun frontenden af det, der sker, når du stiller Siri et spørgsmål. Maskinlæringsmodeller skal derefter forsøge at forstå spørgsmålet, kontekstualisere det og finde frem til det mest præcise svar. Det er faktisk sværere at levere et svar af høj kvalitet, end det ser ud til.

Sikkert, for nogle spørgsmål vil alt, hvad du får fra Siri, være data, som den har fundet på en Wikipedia-side (selv i så fald kan den have tjekket flere af disse sider for at vælge det mest relevante svar). Men det endelige mål må være, at Siri bliver en effektiv kilde til komplekse svar på komplekse problemer – endda i en sådan grad, at den kan forudsige dem.

Disse næste skridt er svære at gennemføre.

Hvordan kan forskerne blive mere sikre på, at det svar, som Siri skal give, er det mest præcise, der er til rådighed?

Det er den slags udfordring, som Apple tager fat på med Overton, der “automatiserer livscyklussen for modelkonstruktion, implementering og overvågning.”

Med menneskelige termer betyder det, at maskinen selv retter og justerer maskinlæringsmodeller som reaktion på eksterne stimuli, hvilket gør den mere præcis og reparerer logiske fejl, der kan føre til en forkert konklusion. Ideen er, at mennesker så kan fokusere på den avancerede overvågning af maskinlæringsmodeller.

Det betyder (tror jeg), at i stedet for at skulle gå dybt ind i stadig mere kompleks kode for at foretage mindre, men nødvendige justeringer, kan mennesker anmode om et sæt ændringer, som Overton så anvender.

Bogstavelig talt styrer de Overton-vinduet.

Hvordan vil Apple bruge dette?

Jeg tror, at Apples ambitioner med Siri rækker længere end til at være den digitale pendant til den lidt ubrugelige ven, som du nogle gange spørger, selvom du ved, at du måske ikke får et brugbart svar.

Siri er tænkt som en stemmestyret hjælper, der kan give information på højt niveau, kontekstualiseret analyse og forstærkning af de opgaver, du allerede udfører. Siri Suggestions viser den retning, selv om implementeringerne fortsat er begrænsede.

Apple siger: “En vigtig retning for det igangværende arbejde er de systemer, der bygger på Overton for at hjælpe med at styre dataforøgelse, programmatisk overvågning og samarbejde.”

Jeg tror også, at Overton har konsekvenser for brugernes privatliv.”

Tænk på det sådan her:

Apples forskere bygger modeller, som de mener er meget præcise. Disse modeller kører på iOS-enheden. Overton giver disse modeller en vis grad af uafhængighed, og ML-systemer justerer modellerne med henblik på nøjagtighed og relevans – alt sammen uden at give forskerne granulær indsigt i individuelle handlinger.

Det betyder, at datamanagere (i dette tilfælde de videnskabsmænd, der skaber disse modeller i første omgang) indtager mere generaliserede strategiske roller, hvor oplysninger om individuelle brugere ikke stilles til rådighed for dem.

Apple skaber ML-maskiner til at håndtere visse definerede opgaver, samtidig med at maskinerne selv udstyres til at tilpasse de modeller, de bruger. Det synes at være det, Overton handler om – og det var helt sikkert en del af det, der fik Apple til at købe Silk Labs.

Apple siger, at Overton er det første machine learning management system, der er sat op til at forbedre og overvåge applikationskvaliteten. Når man læser mellem linjerne, er det måske (og jeg understreger “måske”, da jeg ikke ved bedre) også den teknologi, der bruges til at identificere, hvornår du retter dit iPhone 11-kamera mod et kæledyr for at lave et kæledyrsportræt.

Morgendagens verden er et arbejde under udvikling.

Følg mig på Twitter, eller deltag i AppleHolic’s bar & grill og Apple Discussions-grupperne på MeWe.