Appleは、それらを支配する機械学習システムを構築しています。

iOS 13が出荷されるとSiriが大幅に改善されるため、Appleは重要な音声AIのトレードショーに参加し、「Overton」と呼ぶ世界初の機械学習(ML)技術の詳細を説明する研究を発表している。”

Defining a machine learning window

今週、Appleは世界最大の音声言語処理カンファレンスであるInterspeech 2019を後援します。

イベントでの作業の一環として、複数の研究論文を提出し、その成長中の機械学習チームのメンバーはそこで参加者と会う予定です。

その他のトピック (すべてこちら) の中で、Apple は、音声による表情/意図の検出、音声認識の改善、音声のニュアンスを理解するためのより正確なツールの開発、人間のユーザーと音声アシスタントとの関係を築くためのミラーリングの使用、音声強化を最適化する技術の使用についての論文を発表する予定です。

まったく新しい Interspeech Youtube ポータルでは、Apple のビデオがそこに表示されるかどうかはわかりませんが、同社が ML で何をしようとしているのか、もう少し知ることができるかもしれません。 同社は2017年以来、独自の機械学習ポータルで散発的な機械学習論文と発表を公開しています。

Introducing Overton

AppleはOvertonで初の種類のソリューションを持っていると主張しています – それは、人間ではなく機械が管理するMLモデルの個人化の多くを可能にすることを目指しています。

音声対話はSiriに質問をしたときに起こることのフロントエンドにすぎません。 機械学習モデルは、質問を理解し、文脈を把握し、最も正確な応答を考え出す必要があります。

確かに、Siri から得られる質問は、Wikipedia ページで見つけたデータだけかもしれません(ただし、その場合でも、最も関連性の高い回答を選択するために、いくつかのページをチェックしているかもしれません)。 しかし、最終的な目標は、Siri が複雑な問題に対する複雑な答えの効果的なソースになること、さらにはそれを予測できるようになることです。

これらの次のステップを達成するのは難しいです。

このような課題に、Apple は「モデルの構築、展開、および監視のライフサイクルを自動化」する Overton で取り組んでいます。

人間の言葉で言うと、機械自身が外部刺激に応じて機械学習モデルを修正および調整し、より正確にし、誤った結論につながる可能性がある論理的欠陥を修復することを意味します。

つまり、些細な、しかし必要な調整を行うために複雑化したコードの内部に深く入り込むのではなく、人間が一連の変更を要求し、オーバートンがそれを適用するということだと思います。

Siri に対する Apple の野望は、有益な回答が得られないとわかっていながら時々問い合わせる、少し役に立たない友人のデジタル版であることにとどまらないと思っています。

Appleは、「現在進行中の作業の主要な方向性は、データ拡張、プログラム監督、およびコラボレーションの管理を支援するためにOverton上に構築するシステムである」と述べています。 これらのモデルは iOS デバイス上で実行されます。 Overton はこれらのモデルにある程度の独立性を与え、ML システムは正確さと関連性のためにモデルを調整します。

これは、データ マネージャー (この場合、最初にこれらのモデルを作成する科学者) が、個々のユーザーに関する情報を利用できない、より一般化された戦略的役割を担うことを意味します。 これは、Overton が目指すものであり、Apple が Silk Labs を買収した理由の一部であることは確かです。

Apple は、Overton がアプリケーション品質の向上と監視のために設定された最初の機械学習管理システムであると述べています。 行間を読むと、それはまた、ペットのポートレートのために iPhone 11 のカメラをペットに向けたときに識別するために使用される技術であるかもしれません(私はよく知らないので「かもしれない」と強調します)。

Twitterでフォローしたり、MeWeのAppleHolic’s bar & grillやApple Discussionsのグループにも参加してください