今回のセッションでは、「GPT-4 System Card」の「2.4 Harms of representation, allocation, and quality of service」の章について取り上げます。この章では、直接的な悪意を持たないが偏見が透けて見えるコンテンツに焦点を当てています。言語モデルは社会的な偏見を増幅させる可能性があり、GPT-4もその一例です。OpenAIは、継続的な評価レビューにより、特定の偏見やステレオタイプを強化する可能性があることを発見しました。GPT-4は冗談を理解できるが、口にはしない考えとのずれがあります。受け答えは礼儀正しいですが、内面には偏見が蓄積している可能性があります。このAIの性格の悪さは生まれつきの問題ではなく、学習した人間の意識の反映だと考えられます。
Bing AIの説明
「2.4 Harms of representation, allocation, and quality of service」の章は、機械学習における公正性に関する問題について説明されています。具体的には、AIシステムが機会、リソース、情報を拡張または拒否する場合のAllocation harms、システムが一部の人にとって他の人よりもうまく機能しない場合のQuality-of-service harms、システムがステレオタイプを永続化する提案をする場合のStereotyping harms、システムがグループ(またはその作品)が存在しないかのように振る舞う場合のErasure harmsなどが挙げられています。
https://maruyama097.blogspot.com/2023/05/blog-post_21.html