Por qué Apple cree que es un líder en IA y por qué dice que los críticos se equivocan

El aprendizaje automático (ML) y la inteligencia artificial (AI) ahora impregnan casi todas las funciones del iPhone, pero Apple no ha estado promocionando estas tecnologías como algunos de sus competidores. Quería saber más sobre el enfoque de Apple, así que pasé una hora hablando con dos ejecutivos de Apple sobre la estrategia de la empresa y las implicaciones para la privacidad de todas las nuevas funciones basadas en la IA y el ML.

Históricamente, Apple no ha tenido una reputación pública de líder en esta área. Esto se debe, en parte, a que la gente asocia la IA con los asistentes digitales, y los críticos suelen decir que Siri es menos útil que Google Assistant o Amazon Alexa. Y con el ML, muchos entusiastas de la tecnología dicen que más datos significan mejores modelos, pero Apple no es conocida por la recopilación de datos de la misma manera que, por ejemplo, Google.

A pesar de esto, Apple ha incluido hardware dedicado a las tareas de aprendizaje automático en la mayoría de los dispositivos que comercializa. La funcionalidad impulsada por la inteligencia artificial domina cada vez más las keynotes en las que los ejecutivos de Apple suben al escenario para presentar nuevas funciones para los iPhones, iPads o el Apple Watch. La presentación de los Mac con silicio de Apple a finales de este año traerá muchos de los mismos desarrollos de inteligencia artificial a los portátiles y ordenadores de sobremesa de la compañía.

A raíz del anuncio del silicio de Apple, hablé largo y tendido con John Giannandrea, vicepresidente senior de Apple para el aprendizaje automático y la estrategia de IA, así como con Bob Borchers, vicepresidente de marketing de productos. Describieron la filosofía de la IA de Apple, explicaron cómo el aprendizaje automático impulsa determinadas funciones y defendieron con pasión la estrategia de IA/ML de Apple en los dispositivos.

¿Cuál es la estrategia de IA de Apple?

Tanto Giannandrea como Borchers se unieron a Apple en los últimos dos años; ambos trabajaron anteriormente en Google. De hecho, Borchers se reincorporó a Apple tras un tiempo de ausencia; fue director senior de marketing del iPhone hasta 2009. Y la deserción de Giannandrea de Google a Apple en 2018 fue ampliamente reportada; había sido el jefe de IA y búsqueda de Google.

Google y Apple son empresas muy diferentes. Google tiene la reputación de participar, y en algunos casos liderar, la comunidad de investigación de IA, mientras que Apple solía hacer la mayor parte de su trabajo a puerta cerrada. Eso ha cambiado en los últimos años, ya que el aprendizaje automático impulsa numerosas funciones en los dispositivos de Apple y esta empresa ha aumentado su compromiso con la comunidad de la IA.

«Cuando me incorporé a Apple, ya era usuario del iPad, y me encantaba el Pencil», me dijo Giannandrea (a quien sus colegas llaman «J.G.»). «Así que rastreaba los equipos de software y decía: ‘Vale, ¿dónde está el equipo de aprendizaje automático que está trabajando en la escritura a mano? Y no podía encontrarlo». Resultó que el equipo que buscaba no existía, una sorpresa, dijo, dado que el aprendizaje automático es una de las mejores herramientas disponibles para la función hoy en día.

«Sabía que había tanto aprendizaje automático que Apple debería hacer que era sorprendente que no se estuviera haciendo todo. Y eso ha cambiado drásticamente en los últimos dos o tres años», dijo. «Sinceramente, creo que no hay un rincón de iOS o de las experiencias de Apple que no vaya a ser transformado por el aprendizaje automático en los próximos años».

Ver más

Le pregunté a Giannandrea por qué sentía que Apple era el lugar adecuado para él. Su respuesta se duplicó como un resumen sucinto de la estrategia de IA de la empresa:

Creo que Apple siempre ha representado esa intersección de creatividad y tecnología. Y creo que cuando se piensa en construir experiencias inteligentes, tener una integración vertical, desde las aplicaciones, hasta los marcos, hasta el silicio, es realmente esencial… Creo que es un viaje, y creo que este es el futuro de los dispositivos informáticos que tenemos, es que sean inteligentes, y que, ese tipo de inteligencia desaparezca.

Borchers también intervino, añadiendo: «Este es claramente nuestro enfoque, con todo lo que hacemos, que es, ‘Vamos a centrarnos en lo que es el beneficio, no cómo has llegado allí’. Y en el mejor de los casos, se convierte en algo automático. Desaparece… y solo te centras en lo que ha sucedido, en contraposición a cómo ha sucedido.»

Hablando de nuevo del ejemplo de la escritura a mano, Giannandrea argumentó que Apple está mejor posicionada para «liderar la industria» en la construcción de características y productos impulsados por la inteligencia de la máquina:

Hemos hecho el lápiz, hemos hecho el iPad, hemos hecho el software para ambos. Es simplemente oportunidades únicas para hacer un trabajo realmente, realmente bueno. ¿En qué estamos haciendo un trabajo realmente bueno? En permitir que alguien tome notas y sea productivo con sus pensamientos creativos en papel digital. Lo que me interesa es ver que estas experiencias se utilicen a escala en el mundo.

Lo contrastó con Google. «Google es una empresa increíble, y hay algunos tecnólogos realmente grandes trabajando allí», dijo. «Pero fundamentalmente, su modelo de negocio es diferente y no son conocidos por el envío de experiencias de consumo que son utilizados por cientos de millones de personas».

¿Cómo utiliza Apple el aprendizaje automático hoy en día?

Apple ha hecho un hábito de acreditar el aprendizaje automático con la mejora de algunas características en el iPhone, el Apple Watch o el iPad en sus recientes presentaciones de marketing, pero rara vez entra en mucho detalle-y la mayoría de las personas que compran un iPhone nunca vieron esas presentaciones, de todos modos. Contrasta con Google, por ejemplo, que sitúa la IA en el centro de gran parte de sus mensajes a los consumidores.

Hay numerosos ejemplos de aprendizaje automático que se utilizan en el software y los dispositivos de Apple, la mayoría de ellos nuevos en el último par de años.

El aprendizaje automático se utiliza para ayudar al software del iPad a distinguir entre un usuario que presiona accidentalmente la palma de la mano contra la pantalla mientras dibuja con el Apple Pencil, y una presión intencionada destinada a proporcionar una entrada. Se utiliza para monitorizar los hábitos de uso de los usuarios para optimizar la duración de la batería y la carga del dispositivo, tanto para mejorar el tiempo que los usuarios pueden pasar entre cargas como para proteger la viabilidad de la batería a largo plazo. Se utiliza para hacer recomendaciones de aplicaciones.

Publicidad

Luego está Siri, que es quizás la única cosa que cualquier usuario de iPhone percibiría inmediatamente como inteligencia artificial. El aprendizaje automático impulsa varios aspectos de Siri, desde el reconocimiento de voz hasta los intentos de Siri de ofrecer respuestas útiles.

Los propietarios de iPhone conocedores también pueden notar que el aprendizaje automático está detrás de la capacidad de la aplicación Fotos para clasificar automáticamente las imágenes en galerías preestablecidas, o para ofrecer con precisión las fotos de una amiga llamada Jane cuando se introduce su nombre en el campo de búsqueda de la aplicación.

En otros casos, pocos usuarios pueden darse cuenta de que el aprendizaje automático está en el trabajo. Por ejemplo, el iPhone puede tomar varias fotos en rápida sucesión cada vez que se pulsa el botón del obturador. Un algoritmo entrenado en ML analiza entonces cada imagen y puede componer lo que considera las mejores partes de cada imagen en un resultado.

La IA está detrás de la función de asistencia para el lavado de manos de Apple en el Apple Watch.
Ampliar / La IA está detrás de la función de asistencia para el lavado de manos de Apple en el Apple Watch.
Sam Machkovech

Los teléfonos han incluido durante mucho tiempo procesadores de señal de imagen (ISP) para mejorar la calidad de las fotos digitalmente y en tiempo real, pero Apple aceleró el proceso en 2018 haciendo que el ISP del iPhone trabajara estrechamente con el Neural Engine, el procesador centrado en el aprendizaje automático que la compañía ha añadido recientemente.

Le pedí a Giannandrea que nombrara algunas de las formas en que Apple utiliza el aprendizaje automático en su software y productos recientes. Dio una lista de ejemplos:

Hay un montón de nuevas experiencias que son impulsadas por el aprendizaje automático. Y son cosas como la traducción de idiomas, o el dictado en el dispositivo, o nuestras nuevas características en torno a la salud, como el sueño y el lavado de manos, y cosas que hemos lanzado en el pasado en torno a la salud del corazón y cosas por el estilo. Creo que cada vez hay menos lugares en iOS en los que no estamos utilizando el aprendizaje automático.

Es difícil encontrar una parte de la experiencia en la que no estés haciendo alguna predicción. Por ejemplo, las predicciones de la aplicación, o las predicciones del teclado, o las cámaras de los smartphones modernos hacen un montón de aprendizaje automático entre bastidores para averiguar lo que llaman «saliencia», que es como, ¿cuál es la parte más importante de la imagen? O, si te imaginas haciendo el desenfoque del fondo, estás haciendo el modo retrato.

Todas estas cosas se benefician de las características de aprendizaje de la máquina principal que se construyen en el núcleo de la plataforma de Apple. Así que es casi como, «Encuéntrame algo donde no estamos utilizando el aprendizaje automático».

Borchers también señaló las características de accesibilidad como ejemplos importantes. «Se hacen fundamentalmente disponibles y posibles gracias a esto», dijo. «Cosas como la capacidad de detección de sonido, que es un cambio de juego para esa comunidad en particular, es posible gracias a las inversiones a lo largo del tiempo y las capacidades que se incorporan».

Además, es posible que hayas notado que las actualizaciones de software y hardware de Apple en los últimos dos años han enfatizado las características de realidad aumentada. La mayoría de esas características son posibles gracias al aprendizaje automático. Por Giannandrea:

El aprendizaje automático se utiliza mucho en la realidad aumentada. El problema difícil allí es lo que se llama SLAM, es decir, localización y mapeo simultáneos. Por lo tanto, tratar de entender si usted tiene un iPad con un escáner lidar en él y se está moviendo alrededor, ¿qué es lo que ve? Y construir un modelo 3D de lo que realmente está viendo.

Eso hoy en día utiliza el aprendizaje profundo y tienes que ser capaz de hacerlo en el dispositivo porque quieres ser capaz de hacerlo en tiempo real. No tendría sentido si usted está agitando su iPad alrededor y luego tal vez tener que hacer eso en el centro de datos. Así que, en general, diría que la forma en que pienso en esto es que el aprendizaje profundo, en particular, nos está dando la capacidad de pasar de los datos en bruto a la semántica sobre esos datos.

Cada vez más, Apple realiza las tareas de aprendizaje automático localmente en el dispositivo, en hardware como el Apple Neural Engine (ANE) o en las GPU (unidades de procesamiento gráfico) diseñadas por la compañía. Giannandrea y Borchers argumentaron que este enfoque es lo que hace que la estrategia de Apple sea distinta a la de sus competidores.

¿Por qué hacerlo en el dispositivo?

Tanto Giannandrea como Borchers argumentaron con vehemencia en nuestra conversación que las características que acabamos de repasar son posibles gracias a -y no a pesar de- que todo el trabajo se realiza localmente en el dispositivo.

Hay una narrativa común que reduce el aprendizaje automático a la idea de que más datos significa mejores modelos, lo que a su vez significa mejores experiencias de usuario y productos. Es una de las razones por las que los observadores a menudo señalan a Google, Amazon o Facebook como probables dominadores de la IA; esas empresas operan motores de recopilación de datos masivos, en parte porque operan y tienen total visibilidad en lo que se ha convertido en la infraestructura digital clave para gran parte del mundo. Según esa medida, algunos consideran que es improbable que Apple tenga un rendimiento tan bueno, porque su modelo de negocio es diferente y se ha comprometido públicamente a limitar su recopilación de datos.

Cuando presenté estas perspectivas a Giannandrea, no se contuvo:

Sí, entiendo esta percepción de que los modelos más grandes en los centros de datos son de alguna manera más precisos, pero en realidad es errónea. De hecho es técnicamente erróneo. Es mejor ejecutar el modelo cerca de los datos, en lugar de mover los datos alrededor. Y si se trata de datos de localización -como qué estás haciendo-, datos de ejercicio -qué hace el acelerómetro de tu teléfono-, es mejor estar cerca de la fuente de los datos, y así también se preserva la privacidad.

Borchers y Giannandrea señalaron repetidamente las implicaciones para la privacidad de hacer este trabajo en un centro de datos, pero Giannandrea dijo que el procesamiento local también tiene que ver con el rendimiento.

«Una de las otras cosas importantes es la latencia», dijo. «Si estás enviando algo a un centro de datos, es realmente difícil hacer algo a velocidad de cuadro. Así que tenemos muchas aplicaciones en la tienda de aplicaciones que hacen cosas, como la estimación de la postura, como averiguar que la persona se está moviendo, e identificar dónde están sus piernas y sus brazos, por ejemplo. Esa es una API de alto nivel que ofrecemos. Sólo es útil si se puede hacer a velocidad de fotogramas»

Publicidad

Dio otro ejemplo de uso por parte de los consumidores:

Estás haciendo una fotografía, y los momentos antes de hacerla con la cámara, ésta lo ve todo en tiempo real. Puede ayudarte a tomar una decisión sobre cuándo tomar una fotografía. Si quisieras tomar esa decisión en el servidor, tendrías que enviar cada fotograma al servidor para tomar una decisión sobre cómo hacer una fotografía. Eso no tiene ningún sentido, ¿verdad? Así que hay un montón de experiencias que querrías construir que se hacen mejor en el dispositivo de borde.

Preguntado sobre cómo Apple elige cuándo hacer algo en el dispositivo, la respuesta de Giannandrea fue directa: «Cuando podemos alcanzar, o superar, la calidad de lo que podríamos hacer en el servidor».

Además, ambos ejecutivos de Apple acreditaron el silicio personalizado de Apple -específicamente el silicio Apple Neural Engine (ANE) incluido en los iPhones desde el iPhone 8 y el iPhone X- como un requisito previo para este procesamiento en el dispositivo. El motor neural es una unidad de procesamiento neural (NPU) de ocho núcleos que Apple diseñó para manejar ciertos tipos de tareas de aprendizaje automático.

Publicidad

«Es un viaje de varios años porque el hardware no había estado disponible para hacer esto en el borde hace cinco años», dijo Giannandrea. «El diseño de la ANE es totalmente escalable. Hay un ANE más grande en un iPad que en un teléfono, que en un Apple Watch, pero la capa de la API CoreML para nuestras aplicaciones y también para las aplicaciones de los desarrolladores es básicamente la misma en toda la línea de productos».

Cuando Apple ha hablado públicamente sobre el motor neural, la compañía ha compartido cifras de rendimiento, como 5 billones de operaciones por segundo en el chip A12 de 2018. Pero no se ha concretado sobre la arquitectura del chip. Es literalmente una caja negra en las diapositivas de las presentaciones de Apple.

El motor neuronal de Apple desde el escenario de la presentación.
El motor neuronal de Apple desde el escenario de la presentación.

Dado esto, quería saber si Giannandrea arrojaría más luz sobre cómo funciona el motor neuronal bajo el capó, pero se negó a entrar en muchos detalles. En cambio, dijo que los desarrolladores de aplicaciones pueden obtener todo lo que necesitan saber de CoreML, una API de desarrollo de software que proporciona a los desarrolladores acceso a las capacidades de aprendizaje automático del iPhone.

La API para desarrolladores de CoreML describe muy claramente los tipos de modelos de aprendizaje automático, los modelos de tiempo de ejecución que admitimos… Tenemos un conjunto cada vez mayor de núcleos que admitimos. Y usted apunta a CoreML desde cualquiera de las cosas populares de aprendizaje automático, como PyTorch o TensorFlow, y luego esencialmente compila su modelo y luego se lo da a CoreML.

El trabajo de CoreML es averiguar dónde ejecutar ese modelo. Puede ser que lo correcto sea ejecutar el modelo en ANE pero también puede ser lo correcto ejecutar el modelo en la GPU o ejecutar el modelo en la CPU. Y nuestra CPU también tiene optimizaciones para el aprendizaje automático.

A lo largo de nuestra conversación, ambos ejecutivos señalaron tanto las aplicaciones de terceros desarrolladores como las propias de Apple. La estrategia en este caso no se limita a impulsar los servicios y funciones creados por Apple, sino que abre al menos parte de esa capacidad a la gran comunidad de desarrolladores. Apple ha confiado en los desarrolladores para innovar en sus plataformas desde que la App Store abrió sus puertas en 2008. La compañía suele tomar prestadas las ideas de esos desarrolladores cuando actualiza sus propias aplicaciones, creadas internamente.

Los dispositivos de Apple no son los únicos con chips de aprendizaje automático incorporados, por supuesto. Samsung, Huawei y Qualcomm incluyen NPU en sus sistemas en un chip, por ejemplo. Y Google también ofrece API de aprendizaje automático a los desarrolladores. Sin embargo, la estrategia y el modelo de negocio de Google son muy diferentes. Los teléfonos Android no realizan una gama tan amplia de tareas de aprendizaje automático de forma local.

Macs con silicio de Apple

El objetivo de mi entrevista con Giannandrea y Borchers no era el gran anuncio que la compañía hizo en la WWDC hace unas semanas: el inminente lanzamiento de Macs con silicio de Apple. Pero cuando especulé con que una de las muchas razones de Apple para diseñar los Mac en torno a sus propios chips podría ser la inclusión del motor neuronal, Borchers dijo:

Por primera vez tendremos una plataforma común, una plataforma de silicio que puede soportar lo que queremos hacer y lo que nuestros desarrolladores quieren hacer…. Esa capacidad desbloqueará algunas cosas interesantes que se nos ocurren, pero probablemente lo más importante es que desbloqueará muchas cosas para otros desarrolladores a medida que vayan avanzando.

El primer Mac con silicio de Apple, técnicamente: el kit de transición para desarrolladores.
Ampliar / El primer Mac con silicio de Apple, técnicamente: el kit de transición para desarrolladores.
Sam Machkovech

Giannandrea dio un ejemplo concreto de cómo se utilizarán las herramientas y el hardware de aprendizaje automático de Apple en el Mac:

No sé si viste esa demo en el State of the Union, pero básicamente la idea era: dado un vídeo, recorrer el vídeo fotograma a fotograma y hacer detección de objetos. Y se puede hacer más de un orden de magnitud más rápido en nuestro silicio de lo que podría en la plataforma de legado.

Y entonces, usted dice, «Bueno, eso es interesante. Bueno, ¿por qué es útil?» Imagínate un editor de vídeo en el que tuvieras un cuadro de búsqueda y pudieras decir: «Búscame la pizza en la mesa». Y sólo se escudriñaría en ese cuadro… Éstos son los tipos de experiencias que creo que la gente inventará. Queremos que los desarrolladores utilicen estos marcos y nos sorprendan por lo que pueden hacer con ellos.

Apple dijo en su conferencia de desarrolladores que planea distribuir Macs con su propio silicio a partir de finales de este año.

¿Qué pasa con la privacidad?

La privacidad ha estado en el centro de los mensajes de Apple a los usuarios en los últimos dos años. Se menciona una y otra vez en las conferencias magistrales y en los materiales de marketing, hay recordatorios al respecto salpicados en iOS, y a menudo sale a relucir en las entrevistas, como fue el caso de esta.

«La gente está preocupada por la IA en general porque no sabe lo que es», me dijo Giannandrea. «Creen que es más capaz de lo que es, o piensan en esta visión de ciencia ficción de la IA, y tienes a personas influyentes como Bill Gates y Elon Musk y otros diciendo que esta es una tecnología peligrosa».

Cree que el bombo alrededor de la IA de otras grandes empresas tecnológicas es un negativo, no un positivo, para los esfuerzos de marketing de esas empresas «porque la gente está preocupada por esta tecnología».

El término «IA» puede no ser útil aquí. Evoca villanos sintéticos maliciosos de la cultura pop, como Skynet o HAL 9000. Pero la mayoría de los expertos en inteligencia artificial aplicada le dirán que este oscuro resultado está lejos de la realidad. La tecnología impulsada por el aprendizaje de las máquinas conlleva muchos riesgos -heredar y amplificar los prejuicios humanos, por ejemplo-, pero no parece probable que en el futuro inmediato se convierta en una máquina rebelde que ataque violentamente a la humanidad.

Publicidad

El aprendizaje de las máquinas no las hace realmente inteligentes de la misma manera que los humanos. Por esta y otras razones, muchos expertos en IA (incluido Giannandrea) han sugerido términos alternativos como «inteligencia de las máquinas» que no establecen paralelismos con la inteligencia humana.

Sea cual sea la nomenclatura, el aprendizaje automático puede traer consigo un peligro muy real y presente: el menoscabo de la privacidad de los usuarios. Algunas empresas recopilan agresivamente datos personales de los usuarios y los suben a centros de datos, utilizando el aprendizaje automático y el entrenamiento como justificación.

Como se ha señalado anteriormente, Apple realiza gran parte de esta recopilación y procesamiento localmente en el dispositivo del usuario. Giannandrea vinculó explícitamente esta decisión a la preocupación por la privacidad. «Creo que tenemos una posición muy clara sobre esto, que es que vamos a hacer esta tecnología avanzada de aprendizaje automático en tantos casos como sea posible en su dispositivo, y los datos no van a salir de su dispositivo», dijo. «Tenemos una declaración muy clara acerca de por qué creemos que nuestros dispositivos son más seguros o mejores o deben ser más confiables».

Publicidad

Utilizó el texto a voz como un ejemplo específico de esta filosofía en acción:

Si dices algo como: «Léeme mis mensajes de Bob». La síntesis del texto a voz está ocurriendo en el dispositivo, en el motor neural, la combinación del motor neural y la CPU. Y por eso, nunca vimos el contenido de tu mensaje de Bob porque tu teléfono lo está leyendo, no son los servidores los que lo leen. Por lo tanto, el contenido de ese mensaje nunca llegó al servidor…

Así que ese es un gran ejemplo de tecnología avanzada que realmente mejora tanto la utilidad del usuario porque la voz está siendo sintetizada en el dispositivo, por lo que incluso si usted está desconectado, seguirá funcionando. Pero también la historia de la privacidad. Es realmente difícil de hacer. Una gran cantidad de ingeniería realmente duro fue en hacer moderna de alta calidad se sintetiza en un dispositivo que se puede poner en su bolsillo.

Por supuesto, usted debe utilizar algunos datos del usuario para el aprendizaje automático en muchos casos. Entonces, ¿cómo utiliza exactamente Apple los datos de los usuarios que maneja? Giannandrea explicó:

En general, tenemos dos formas de construir modelos. Una es cuando recogemos y etiquetamos los datos, lo cual es apropiado en muchas, muchas circunstancias. Y luego está el caso en el que pedimos a los usuarios que donen sus datos. El ejemplo más notable sería Siri, donde, cuando se configura un iPhone, decimos: «¿Te gustaría ayudar a mejorar Siri?»

Ese es un caso en el que se nos dona cierta cantidad de datos y luego un porcentaje muy pequeño de ellos puede ser utilizado para el entrenamiento. Pero en muchas de las cosas de las que estamos hablando -por ejemplo, la escritura a mano- podemos reunir suficientes datos para entrenar ese modelo para que funcione básicamente con la escritura a mano de todo el mundo sin tener que utilizar ningún dato de los consumidores.

Algunas de estas indicaciones que solicitan el uso de sus datos se han añadido recientemente. El verano pasado, un informe indicaba que Siri estaba grabando lo que los usuarios decían después de activaciones accidentales; los contratistas encargados de garantizar la calidad de la funcionalidad de Siri escuchaban algunas de esas grabaciones.

Apple respondió comprometiéndose a almacenar sólo el audio relacionado con Siri después de que los usuarios optaran explícitamente por mejorar Siri compartiendo las grabaciones (este comportamiento se puso en marcha en iOS 13.2) y luego llevó toda la garantía de calidad a la empresa. Le pregunté qué está haciendo Apple de forma diferente a como lo hacían los contratistas con estos datos. Giannandrea respondió:

Tenemos un montón de salvaguardias. Por ejemplo, hay un proceso para identificar si el audio estaba destinado al asistente, que es completamente independiente del proceso para revisar realmente el audio. Así que hacemos un montón de cosas internamente para asegurarnos de que no estamos capturando -y luego descartando, de hecho- cualquier audio accidental.

Pero si usted no está dispuesto a realmente QA, a su punto, la característica, entonces nunca va a hacer las grabaciones accidentales mejor. Como sabes, el aprendizaje automático requiere que lo mejores continuamente. Así que hemos revisado muchos de nuestros flujos de trabajo y procesos al mismo tiempo que incorporamos el trabajo a la empresa. Estoy seguro de que tenemos uno de los mejores procesos para mejorar el asistente de forma que se preserve la privacidad.

Está claro que Apple quiere impulsar la protección de la privacidad como una característica clave de sus dispositivos; Giannandrea se mostró muy convencido. Pero también podría ayudar a Apple en el mercado, ya que su mayor competidor en el espacio móvil tiene un historial mucho peor en materia de privacidad, y eso deja un hueco a medida que los usuarios se preocupan cada vez más por las implicaciones de la IA en materia de privacidad.

A lo largo de nuestra conversación, tanto Giannandrea como Borchers volvieron a insistir en dos puntos de la estrategia de Apple: 1) es más eficaz realizar las tareas de aprendizaje automático de forma local, y 2) es más «preservar la privacidad» -una expresión específica que Giannandrea repitió varias veces en nuestra conversación- para hacerlo.

Dentro de la caja negra

Después de un largo historial de trabajo en funciones de IA en la oscuridad, el énfasis de Apple en el aprendizaje automático se ha ampliado enormemente en los últimos años.

La compañía está publicando regularmente, está haciendo patrocinios académicos, tiene becas, patrocina laboratorios, va a conferencias de IA/ML. Recientemente ha relanzado un blog de aprendizaje automático en el que comparte algunas de sus investigaciones. También ha estado contratando ingenieros y otras personas en el ámbito del aprendizaje automático, incluido el propio Giannandrea hace apenas dos años.

Publicidad

No está liderando la comunidad de investigación de la forma en que lo hace Google, pero Apple se hace notar, al menos, en llevar los frutos del aprendizaje automático a más usuarios.

¿Recuerdas cuando Giannandrea dijo que estaba sorprendido de que el aprendizaje automático no se utilizara para la escritura a mano con el Pencil? Pasó a ver la creación del equipo que lo hizo posible. Y en tándem con otros equipos, avanzaron con la escritura a mano impulsada por el aprendizaje automático, una piedra angular en iPadOS 14.

«Tenemos un montón de increíbles profesionales del aprendizaje automático en Apple, y seguimos contratándolos», dijo Gianandrea. «Me resulta muy fácil atraer a gente de talla mundial a Apple porque cada vez es más evidente en nuestros productos que el aprendizaje automático es fundamental para las experiencias que queremos construir para los usuarios».

Tras una breve pausa, añadió: «Supongo que el mayor problema que tengo es que muchos de nuestros productos más ambiciosos son aquellos de los que no podemos hablar, por lo que es un poco un reto de ventas decirle a alguien: ‘Ven a trabajar en lo más ambicioso de la historia, pero no puedo decirte de qué se trata.Si las grandes empresas tecnológicas y las inversiones de capital de riesgo son creíbles, la IA y el aprendizaje automático serán cada vez más omnipresentes en los próximos años. Sea como sea, Giannandrea y Borchers dejaron clara una cosa: el aprendizaje automático ya forma parte de gran parte de lo que Apple hace con sus productos, y de muchas de las funciones que los consumidores utilizan a diario. Y con la llegada del Neural Engine a los Mac a partir de este otoño, el papel del aprendizaje automático en Apple probablemente seguirá creciendo.