Apple bygger ett system för maskininlärning som kommer att styra dem alla

Med tanke på att Siri kommer att förbättras avsevärt när iOS 13 är klart, deltar Apple på en viktig mässa för röststyrd artificiell intelligens och har publicerat en studie som förklarar några av detaljerna i den första maskininlärningstekniken av sitt slag som Apple kallar ”Overton”.”

Definiering av ett fönster för maskininlärning

Denna vecka sponsrar Apple världens största konferens om behandling av talat språk, Interspeech 2019.

Som en del av sitt arbete vid evenemanget har Apple lämnat in flera forskningsartiklar – och medlemmar av dess växande maskininlärningsteam kommer att träffa deltagarna där.

Med andra ämnen (se dem alla här) kommer Apple att presentera artiklar om att upptäcka uttryck/avsikt genom röst, förbättra röstigenkänning, utveckla mer exakta verktyg för att förstå talnyanser, använda spegling för att bygga relationer mellan mänskliga användare och talassistenter och använda teknik för att optimera talförbättring.

Vi kan få veta lite mer om vad företaget håller på med i ML på den helt nya Interspeech Youtube-portalen, även om vi inte vet om någon Apple-video kommer att visas där.

Det är ingen chock att Apples forskare engagerar sig i det bredare vetenskapliga samfundet. Företaget har publicerat sporadiska artiklar och tillkännagivanden om maskininlärning på sin egen portal för maskininlärning sedan 2017.

Introduktion av Overton

Apple påstår sig ha en först i sitt slag-lösning med Overton – den syftar till att göra det möjligt för en stor del av personaliseringen av ML-modellerna att administreras av maskinen, inte av människan.

Stäminteraktion är bara fronten av vad som händer när du ställer en fråga till Siri. Maskininlärningsmodeller måste sedan försöka förstå frågan, kontextualisera den och räkna ut det mest exakta svaret. Att ge ett högkvalitativt svar är faktiskt svårare än det verkar.

För vissa frågor är det enda du får från Siri data som den har hittat på en Wikipediasida (även om den även då kan ha kontrollerat flera sådana sidor för att välja det mest relevanta svaret). Men det slutliga målet måste vara att Siri blir en effektiv källa för komplexa svar på komplexa problem – till och med till den grad att den kan förutsäga dem.

Dessa nästa steg är svåra att genomföra.

Hur kan forskarna bli säkrare på att det svar som Siri måste ge är det mest exakta som finns tillgängligt?

Det är den typen av utmaning som Apple tar itu med med Overton, som ”automatiserar livscykeln för modellkonstruktion, driftsättning och övervakning.”

I mänskliga termer innebär det att maskinen själv fixar och justerar maskininlärningsmodellerna som svar på externa stimuli, vilket gör dem mer exakta och reparerar logiska brister som kan leda till en felaktig slutsats. Tanken är att människor sedan kan fokusera på den avancerade övervakningen av maskininlärningsmodeller.

Detta innebär (tror jag) att i stället för att behöva gå djupt in i en alltmer komplex kod för att göra mindre men nödvändiga justeringar, kan människor begära en uppsättning ändringar som Overton sedan tillämpar.

Bokstavligen kontrollerar de Overtonfönstret.

Hur kommer Apple att använda detta?

Jag tror att Apples ambitioner för Siri sträcker sig längre än till att vara den digitala motsvarigheten till den något odugliga vän som du ibland frågar trots att du vet att du kanske inte får något användbart svar.

Siri är tänkt att vara en röststyrd hjälpreda som kan ge dig information på hög nivå, kontextualiserad analys och förstärkning av de uppgifter som du redan utför. Siri Suggestions visar den riktningen, även om implementeringarna fortfarande är begränsade.

Apple säger: ”En viktig riktning för pågående arbete är de system som bygger på Overton för att hjälpa till att hantera dataökning, programmatisk övervakning och samarbete.”

Jag tror också att Overton har konsekvenser för användarnas integritet.

Tänk på det så här:

Apples forskare bygger modeller som de anser vara mycket exakta. Dessa modeller körs på iOS-enheten. Overton förser dessa modeller med en viss grad av oberoende och ML-system justerar modellerna med avseende på noggrannhet och relevans – allt utan att ge forskarna granulära insikter i enskilda handlingar.

Detta innebär att datahanterare (i det här fallet vetenskapsmännen som skapar dessa modeller i första hand) intar mer generaliserade strategiska roller där de inte får tillgång till information om enskilda användare.

Apple skapar ML-maskiner för att hantera vissa definierade uppgifter, men utrustar samtidigt maskinerna själva för att anpassa de modeller de använder. Detta verkar vara vad Overton handlar om – och var säkert en del av det som fick Apple att köpa Silk Labs.

Apple säger att Overton är det första hanteringssystemet för maskininlärning som inrättats för att förbättra och övervaka applikationskvaliteten. Om man läser mellan raderna kan det (och jag betonar ”kan”, eftersom jag inte vet bättre) också vara den teknik som används för att identifiera när du riktar kameran i din iPhone 11 mot ett husdjur för ett husdjursporträtt.

Morgondagens värld är ett pågående arbete.

Följ mig på Twitter eller delta i grupperna AppleHolic’s bar & grill och Apple Discussions på MeWe.