2021年02月07日
グーグル・リサーチ: アクセシビリティ 2021年1月12日D
アクセシビリティ
機械学習は、ある種の感覚入力を他のものに変換することを学習できるため、アクセシビリティを向上させるための驚くべき機会を提供し続けています。その一例として、私達はLookoutというアンドロイドのアプリケーションをリリースしました。これは、食料品店や自宅のキッチンの食器棚にあるパッケージされた食品を識別することで、視覚障害を持つユーザーを支援することができます。Lookout の背後にある機械学習システムは、強力でありながらもコンパクトな機械学習モデルが、約 200 万点の製品をリアルタイムで携帯端末上で識別できることを実証しています。
同様に、手話でコミュニケーションをとる人は、手話をしていても音声ベースの話者検出システムでは能動的に話しているとは検出されないため、ビデオ会議システムを利用することが難しいと感じています。「ビデオ会議のためのリアルタイム自動手話検出」の開発は、リアルタイム手話検出モデルを提示し、手話者を能動的な話者として識別するメカニズムをビデオ会議システムに提供するためにどのように使用できるかを実証しています。
私達はまた、大切な家の音の音声アクセスやサウンド通知など、アンドロイドの便利なアクセシビリティ機能を実現しました。
Live Captionは、電話やビデオ通話のキャプション機能を備えたピクセル・スマートフォンでの通話をサポートするために拡張されました。これは、聴覚障害者や難聴者が支援なしで通話を行うことができるLive Relay研究プロジェクトから生まれたものです。
英語原文はこちら
https://ai.googleblog.com/2021/01/google-research-looking-back-at-2020.html
機械学習は、ある種の感覚入力を他のものに変換することを学習できるため、アクセシビリティを向上させるための驚くべき機会を提供し続けています。その一例として、私達はLookoutというアンドロイドのアプリケーションをリリースしました。これは、食料品店や自宅のキッチンの食器棚にあるパッケージされた食品を識別することで、視覚障害を持つユーザーを支援することができます。Lookout の背後にある機械学習システムは、強力でありながらもコンパクトな機械学習モデルが、約 200 万点の製品をリアルタイムで携帯端末上で識別できることを実証しています。
同様に、手話でコミュニケーションをとる人は、手話をしていても音声ベースの話者検出システムでは能動的に話しているとは検出されないため、ビデオ会議システムを利用することが難しいと感じています。「ビデオ会議のためのリアルタイム自動手話検出」の開発は、リアルタイム手話検出モデルを提示し、手話者を能動的な話者として識別するメカニズムをビデオ会議システムに提供するためにどのように使用できるかを実証しています。
私達はまた、大切な家の音の音声アクセスやサウンド通知など、アンドロイドの便利なアクセシビリティ機能を実現しました。
Live Captionは、電話やビデオ通話のキャプション機能を備えたピクセル・スマートフォンでの通話をサポートするために拡張されました。これは、聴覚障害者や難聴者が支援なしで通話を行うことができるLive Relay研究プロジェクトから生まれたものです。
英語原文はこちら
https://ai.googleblog.com/2021/01/google-research-looking-back-at-2020.html
【このカテゴリーの最新記事】
-
no image
-
no image
-
no image
-
no image
-
no image
この記事へのコメント
コメントを書く
この記事へのトラックバックURL
https://fanblogs.jp/tb/10523152
※ブログオーナーが承認したトラックバックのみ表示されます。
この記事へのトラックバック