2021年02月19日
グーグル・リサーチ: 責任あるAI 2021年1月12日F
責任あるAI
Google AI Principles(グーグルAI原則) は、私達の高度な技術開発の指針となっています。私達は、責任あるAI研究とツールへの投資を継続し、この分野での推奨技術実践を更新し、2020年のブログ記事とレポートを含む定期的な更新情報を共有して、実施の進捗状況を確認しています。
言語モデルの動作をよりよく理解するために、私達は言語モデルの解釈性を向上させるためのツールキットである言語解釈性ツール(LIT)を開発し、言語モデルの意思決定の対話的な探索と分析を可能にしました。私達は、事前に訓練された言語モデルにおける性別相関を測定する技術と、グーグル翻訳における性別バイアスを低減するためのスケーラブルな技術を開発しました。私達は、カーネル法を用いて、学習データの例が個々の予測に与える影響を推定する簡単な方法を提案しました。非専門家が機械学習の結果を解釈するのに役立つように、私達は、2019年に導入されたTCAV技法を拡張し、現在では概念の完全かつ十分なセットを提供するようになりました。元々のTCAV作業では、「毛皮」と「長い耳」が「うさぎ」の予測にとって重要な概念であると言うことができました。この作業では、この2つの概念だけで十分に予測を説明することができ、他の概念は必要ないと言えます。概念ボトルネック・モデルとは、あるタスクの最終予測を行う前に、あらかじめ定義された専門家の概念(例:「骨棘がある」、「翼の色」など)とレイヤーの1つが一致するようにモデルを訓練することで、解釈するだけでなく、これらの概念をその場でオン/オフできるようにするために、モデルをより解釈しやすくするための手法です。
予測を事前に特定された概念に合わせることで、概念ボトルネック・モデルで説明されているように、モデルをより解釈しやすくすることができます。また、私達は他の多くの機関と共同で、言語モデルの暗記効果についても調査し、訓練データ抽出攻撃が最先端の大規模言語モデルに対する現実的な脅威であることを示しました。この発見は、モデルを埋め込むことで情報が漏洩する可能性があるという結果とともに、(特にプライベート・データで訓練されたモデルに対して)プライバシーに重大な影響を及ぼす可能性があります。「セサミ・ストリートの泥棒たち: BERTベースのAPIでのモデル抽出」では、言語モデルへのAPI アクセスのみを持つ攻撃者が、元のモデルへの比較的少ないAPIクエリであっても、元のモデルと非常に高い相関関係を持つ出力を持つモデルを作成できることを実証しました。その後の研究では、攻撃者が任意の精度でより小さなモデルを抽出できることを実証しました。AI安全性の原則について、私達は13の公開されている敵対的な例に対する防御策が、適応攻撃を用いて評価を行おうとしたにもかかわらず回避できることを実証しました。私達の研究は、適応攻撃を実行するために必要な方法論とアプローチを明らかにすることに焦点を当てており、その結果、コミュニティはより堅牢なモデルを構築するための更なる進歩を遂げることができるでしょう。
機械学習システム自体を審査する方法を検討することも重要な研究分野です。Partnership on AI (AIに関するパートナーシップ)と共同で、私達は、航空宇宙、医療機器、金融業界からの教訓とそのベスト・プラクティスに基づいて、ソフトウェア製品の設定における機械学習の使用を監査する方法のためのフレームワークを定義しました。トロント大学およびマサチューセッツ工科大学との共同研究では、顔認識システムのパフォーマンスを監査する際に発生する可能性のあるいくつかの倫理的な懸念事項を特定しました。ワシントン大学との共同研究では、アルゴリズムの公平性を評価するためのサブ・セットを選択する際に、多様性と包括性に関連した重要な考慮事項をいくつか確認しました。次の10億人のユーザーのために責任あるAIを実現するための最初のステップとして、また、世界のさまざまな地域で公平性の概念が一貫しているかどうかを理解するために、データセット、公平性の最適化、インフラストラクチャ、エコシステムを考慮に入れて、インドにおけるアルゴリズムの公平性のためのフレームワークを分析して作成しました。
2019年にトロント大学と共同で導入されたモデル・カードの研究が影響力を増しています。実際、OpenAIのGPT-2やGPT-3、グーグルのMediaPipeモデルの多く、さまざまなGoogle Cloud APIのような有名なモデルの多くは、機械学習モデルのユーザーにモデルの開発状況や、さまざまな条件でのモデルの観測された挙動についてより多くの情報を与える方法として、すべてモデル・カードを採用しています。また、これを他の人が自分の機械学習モデルに採用しやすくするために、モデルの透明性の報告を容易にするためのモデル・カード・ツール・キットも導入しました。機械学習開発実践の透明性を高めるために、データ要求仕様やデータ受け入れテストを含むデータ・セット開発ライフ・サイクル全体を通して、さまざまなベスト・プラクティスの適用可能性を実証しています。
私達は、米国国立科学財団(NSF)と共同で、人間とAIの相互作用とコラボレーションのための国立AI研究所を発表し、その資金援助を行いました。また、機械学習モデルを訓練する際の不公平なバイアスを効果的かつ効率的に緩和するためのTFモデル修復ライブラリで利用可能な新しい正則化手法であるMinDiffフレームワークと、機械学習ベースの意思決定システムを社会環境に展開することによる長期的な潜在的影響を探る簡単なシミュレーションを構築するためのML-fairness gymをリリースしました。
公平性のためのフレームワークの開発に加えて、強化学習を利用してより安全な軌道を導入するなど、レコメンダー・システムの健全性や体験の質を特定し、向上させるためのアプローチを開発しました。また、機械学習システムの信頼性向上にも引き続き取り組んでおり、敵対的な例を生成するなどのアプローチが堅牢性を向上させることや、堅牢性のアプローチが公平性を向上させることができることを確認しています。
差分プライバシーは、プライバシー保護を正式に定量化する方法であり、特定の個人に関する情報が漏洩しないように動作するための最も基本的なアルゴリズムを再考させます。特に、差分プライバシーは、上述したような記憶効果や情報漏洩への対処に役立ちます。2020年には、プライベートな経験的リスク最小化器のより効率的な計算方法から、タイトな近似保証を持つプライベートなクラスタリング手法、プライベートなスケッチ・アルゴリズムまで、多くのエキサイティングな開発が行われました。また、実数の浮動小数点表現による漏洩を防ぐために、内部ツールの中核となる差分プライバシー・ライブラリもオープンソース化しています。これらは、研究者や政策立案者にとって匿名データの貴重なソースとなっているCOVID-19モビリティ・レポートを差分的にプライベートに作成するために使用しているツールと全く同じものです。
開発者が分類モデルのプライバシー特性を評価するのに役立つように、私達はTensorflowで機械学習プライバシー・テスト・ライブラリをリリースしました。このライブラリが、世界中の機械学習開発者が利用できる堅牢なプライバシー・テスト・スイートの出発点となることを願っています。
CIFAR10のモデルに対するメンバーシップ推論攻撃。x軸はモデルのテスト精度、y軸は脆弱性スコア(低いほどプライベート性が高い)。テスト精度は変わらず、脆弱性は大きくなっています。一般化を進めればプライバシーの漏洩を防ぐことができます。
プライベート・アルゴリズムの開発における最先端の技術を推進することに加えて、プライバシーを製品に織り込んだことによる進歩にも興奮しています。その最たる例がクローム のプライバシー・サンドボックスで、広告エコシステムの基盤を変え、個人のプライバシーを体系的に保護するのに役立ちます。プロジェクトの一環として、私達は、関心に基づいたターゲティングのためのグループの連合学習(FLoC)や、差分的にプライベートな測定のための集約APIなど、さまざまなAPIを提案し、評価しました。
2017年に開始された連合学習は、現在ではそれ自体が完全な研究分野となっており、2020年だけでも3,000以上の連合学習に関する論文が登場します。2019年に発表した私達の機関横断的な調査論文「Advances and Open Problems in Federated Learning」は、過去1年間で367回引用されており、近日中に更新版が「Foundations & Trends in Machine Learning」シリーズに掲載される予定です。7月には、Federated Learning and Analyticsのワークショップを開催し、全研究講演とTensorFlow Federatedチュートリアルを公開しました。
私達は、適応学習アルゴリズム、事後平均化アルゴリズム、連合設定で集中型アルゴリズムを模倣する技術を含む新しい集合的最適化アルゴリズムの開発、無料の暗号プロトコルの大幅な改善など、連合学習の最先端を推進し続けています。私達は、ユーザーのデバイスにローカルに保存されている生データ上でのデータ・サイエンスを可能にする、連合分析を発表し展開しました。グーグル製品における連合学習の新たな用途としては、Gboardでの文脈に沿った絵文字の提案、Google Health Studiesでのプライバシー保護のための医療研究の開拓などが挙げられます。さらに、Privacy Amplification via Random Check-Insでは、Federated Learning(連合学習)のための初のプライバシー会計メカニズムを発表しました。
ユーザーのセキュリティも、私達にとって大きな関心事です。2020年には、悪意のある文書に対する保護を提供する新しい機械学習ベースの文書スキャナを導入することで、Gmailユーザーの保護を改善し続け、悪意のあるオフィス文書の検出率を日常的に10%増加させました。一般化する能力のおかげで、このツールは、他の検出メカニズムを逃れたいくつかの敵対的なマルウェア・キャンペーンをブロックするのに非常に効果的で、私達の検出率を一部のケースで150%増加させました。
アカウント保護の面では、完全にオープンソース化されたセキュリティ・キーのファームウェアをリリースし、二要素認証の分野での技術の進歩を支援し、フィッシングからアカウントを保護するための最良の方法としてセキュリティ・キーに焦点を当てています。
英語原文はこちら
https://ai.googleblog.com/2021/01/google-research-looking-back-at-2020.html
Google AI Principles(グーグルAI原則) は、私達の高度な技術開発の指針となっています。私達は、責任あるAI研究とツールへの投資を継続し、この分野での推奨技術実践を更新し、2020年のブログ記事とレポートを含む定期的な更新情報を共有して、実施の進捗状況を確認しています。
言語モデルの動作をよりよく理解するために、私達は言語モデルの解釈性を向上させるためのツールキットである言語解釈性ツール(LIT)を開発し、言語モデルの意思決定の対話的な探索と分析を可能にしました。私達は、事前に訓練された言語モデルにおける性別相関を測定する技術と、グーグル翻訳における性別バイアスを低減するためのスケーラブルな技術を開発しました。私達は、カーネル法を用いて、学習データの例が個々の予測に与える影響を推定する簡単な方法を提案しました。非専門家が機械学習の結果を解釈するのに役立つように、私達は、2019年に導入されたTCAV技法を拡張し、現在では概念の完全かつ十分なセットを提供するようになりました。元々のTCAV作業では、「毛皮」と「長い耳」が「うさぎ」の予測にとって重要な概念であると言うことができました。この作業では、この2つの概念だけで十分に予測を説明することができ、他の概念は必要ないと言えます。概念ボトルネック・モデルとは、あるタスクの最終予測を行う前に、あらかじめ定義された専門家の概念(例:「骨棘がある」、「翼の色」など)とレイヤーの1つが一致するようにモデルを訓練することで、解釈するだけでなく、これらの概念をその場でオン/オフできるようにするために、モデルをより解釈しやすくするための手法です。
予測を事前に特定された概念に合わせることで、概念ボトルネック・モデルで説明されているように、モデルをより解釈しやすくすることができます。また、私達は他の多くの機関と共同で、言語モデルの暗記効果についても調査し、訓練データ抽出攻撃が最先端の大規模言語モデルに対する現実的な脅威であることを示しました。この発見は、モデルを埋め込むことで情報が漏洩する可能性があるという結果とともに、(特にプライベート・データで訓練されたモデルに対して)プライバシーに重大な影響を及ぼす可能性があります。「セサミ・ストリートの泥棒たち: BERTベースのAPIでのモデル抽出」では、言語モデルへのAPI アクセスのみを持つ攻撃者が、元のモデルへの比較的少ないAPIクエリであっても、元のモデルと非常に高い相関関係を持つ出力を持つモデルを作成できることを実証しました。その後の研究では、攻撃者が任意の精度でより小さなモデルを抽出できることを実証しました。AI安全性の原則について、私達は13の公開されている敵対的な例に対する防御策が、適応攻撃を用いて評価を行おうとしたにもかかわらず回避できることを実証しました。私達の研究は、適応攻撃を実行するために必要な方法論とアプローチを明らかにすることに焦点を当てており、その結果、コミュニティはより堅牢なモデルを構築するための更なる進歩を遂げることができるでしょう。
機械学習システム自体を審査する方法を検討することも重要な研究分野です。Partnership on AI (AIに関するパートナーシップ)と共同で、私達は、航空宇宙、医療機器、金融業界からの教訓とそのベスト・プラクティスに基づいて、ソフトウェア製品の設定における機械学習の使用を監査する方法のためのフレームワークを定義しました。トロント大学およびマサチューセッツ工科大学との共同研究では、顔認識システムのパフォーマンスを監査する際に発生する可能性のあるいくつかの倫理的な懸念事項を特定しました。ワシントン大学との共同研究では、アルゴリズムの公平性を評価するためのサブ・セットを選択する際に、多様性と包括性に関連した重要な考慮事項をいくつか確認しました。次の10億人のユーザーのために責任あるAIを実現するための最初のステップとして、また、世界のさまざまな地域で公平性の概念が一貫しているかどうかを理解するために、データセット、公平性の最適化、インフラストラクチャ、エコシステムを考慮に入れて、インドにおけるアルゴリズムの公平性のためのフレームワークを分析して作成しました。
2019年にトロント大学と共同で導入されたモデル・カードの研究が影響力を増しています。実際、OpenAIのGPT-2やGPT-3、グーグルのMediaPipeモデルの多く、さまざまなGoogle Cloud APIのような有名なモデルの多くは、機械学習モデルのユーザーにモデルの開発状況や、さまざまな条件でのモデルの観測された挙動についてより多くの情報を与える方法として、すべてモデル・カードを採用しています。また、これを他の人が自分の機械学習モデルに採用しやすくするために、モデルの透明性の報告を容易にするためのモデル・カード・ツール・キットも導入しました。機械学習開発実践の透明性を高めるために、データ要求仕様やデータ受け入れテストを含むデータ・セット開発ライフ・サイクル全体を通して、さまざまなベスト・プラクティスの適用可能性を実証しています。
私達は、米国国立科学財団(NSF)と共同で、人間とAIの相互作用とコラボレーションのための国立AI研究所を発表し、その資金援助を行いました。また、機械学習モデルを訓練する際の不公平なバイアスを効果的かつ効率的に緩和するためのTFモデル修復ライブラリで利用可能な新しい正則化手法であるMinDiffフレームワークと、機械学習ベースの意思決定システムを社会環境に展開することによる長期的な潜在的影響を探る簡単なシミュレーションを構築するためのML-fairness gymをリリースしました。
公平性のためのフレームワークの開発に加えて、強化学習を利用してより安全な軌道を導入するなど、レコメンダー・システムの健全性や体験の質を特定し、向上させるためのアプローチを開発しました。また、機械学習システムの信頼性向上にも引き続き取り組んでおり、敵対的な例を生成するなどのアプローチが堅牢性を向上させることや、堅牢性のアプローチが公平性を向上させることができることを確認しています。
差分プライバシーは、プライバシー保護を正式に定量化する方法であり、特定の個人に関する情報が漏洩しないように動作するための最も基本的なアルゴリズムを再考させます。特に、差分プライバシーは、上述したような記憶効果や情報漏洩への対処に役立ちます。2020年には、プライベートな経験的リスク最小化器のより効率的な計算方法から、タイトな近似保証を持つプライベートなクラスタリング手法、プライベートなスケッチ・アルゴリズムまで、多くのエキサイティングな開発が行われました。また、実数の浮動小数点表現による漏洩を防ぐために、内部ツールの中核となる差分プライバシー・ライブラリもオープンソース化しています。これらは、研究者や政策立案者にとって匿名データの貴重なソースとなっているCOVID-19モビリティ・レポートを差分的にプライベートに作成するために使用しているツールと全く同じものです。
開発者が分類モデルのプライバシー特性を評価するのに役立つように、私達はTensorflowで機械学習プライバシー・テスト・ライブラリをリリースしました。このライブラリが、世界中の機械学習開発者が利用できる堅牢なプライバシー・テスト・スイートの出発点となることを願っています。
CIFAR10のモデルに対するメンバーシップ推論攻撃。x軸はモデルのテスト精度、y軸は脆弱性スコア(低いほどプライベート性が高い)。テスト精度は変わらず、脆弱性は大きくなっています。一般化を進めればプライバシーの漏洩を防ぐことができます。
プライベート・アルゴリズムの開発における最先端の技術を推進することに加えて、プライバシーを製品に織り込んだことによる進歩にも興奮しています。その最たる例がクローム のプライバシー・サンドボックスで、広告エコシステムの基盤を変え、個人のプライバシーを体系的に保護するのに役立ちます。プロジェクトの一環として、私達は、関心に基づいたターゲティングのためのグループの連合学習(FLoC)や、差分的にプライベートな測定のための集約APIなど、さまざまなAPIを提案し、評価しました。
2017年に開始された連合学習は、現在ではそれ自体が完全な研究分野となっており、2020年だけでも3,000以上の連合学習に関する論文が登場します。2019年に発表した私達の機関横断的な調査論文「Advances and Open Problems in Federated Learning」は、過去1年間で367回引用されており、近日中に更新版が「Foundations & Trends in Machine Learning」シリーズに掲載される予定です。7月には、Federated Learning and Analyticsのワークショップを開催し、全研究講演とTensorFlow Federatedチュートリアルを公開しました。
私達は、適応学習アルゴリズム、事後平均化アルゴリズム、連合設定で集中型アルゴリズムを模倣する技術を含む新しい集合的最適化アルゴリズムの開発、無料の暗号プロトコルの大幅な改善など、連合学習の最先端を推進し続けています。私達は、ユーザーのデバイスにローカルに保存されている生データ上でのデータ・サイエンスを可能にする、連合分析を発表し展開しました。グーグル製品における連合学習の新たな用途としては、Gboardでの文脈に沿った絵文字の提案、Google Health Studiesでのプライバシー保護のための医療研究の開拓などが挙げられます。さらに、Privacy Amplification via Random Check-Insでは、Federated Learning(連合学習)のための初のプライバシー会計メカニズムを発表しました。
ユーザーのセキュリティも、私達にとって大きな関心事です。2020年には、悪意のある文書に対する保護を提供する新しい機械学習ベースの文書スキャナを導入することで、Gmailユーザーの保護を改善し続け、悪意のあるオフィス文書の検出率を日常的に10%増加させました。一般化する能力のおかげで、このツールは、他の検出メカニズムを逃れたいくつかの敵対的なマルウェア・キャンペーンをブロックするのに非常に効果的で、私達の検出率を一部のケースで150%増加させました。
アカウント保護の面では、完全にオープンソース化されたセキュリティ・キーのファームウェアをリリースし、二要素認証の分野での技術の進歩を支援し、フィッシングからアカウントを保護するための最良の方法としてセキュリティ・キーに焦点を当てています。
英語原文はこちら
https://ai.googleblog.com/2021/01/google-research-looking-back-at-2020.html
【このカテゴリーの最新記事】
-
no image
-
no image
-
no image
-
no image
-
no image
この記事へのコメント
コメントを書く
この記事へのトラックバックURL
https://fanblogs.jp/tb/10549794
※ブログオーナーが承認したトラックバックのみ表示されます。
この記事へのトラックバック