AIに「多様性を数値化させる」──Adobeの斬新すぎる新システム
Adobe社、AIを用いた「DEI監査」を特許申請──成功の可能性と懸念点
先日、「Adobe」社が人工知能を使って「多様性監査」なるシステムを開発し、特許申請を行ったことが報じられた。
このシステムは顔認識と画像分類技術を用いて、従業員の写真に基づいて多様性を数値化し、「多様性スコア」を算出するという革新的なアプローチだ。
多様性が高いとされる組織は、イノベーションが促進される傾向がある。このシステムが正確に多様性を評価できれば、企業はイノベーションを更に推進する手段を得ることができるかもしれない。
その上で、デザインで世界を先導するAdobeがこの分野で成功すれば、そのシステムが多様性と包摂性を評価・改善する標準になることが期待できる。
しかし、この新しいアプローチには批評家からも賛否が分かれている。
複雑な多様性を「スコア」で表示するシステム
このシステムは、顔認識で従業員の顔を検出し、その後「予測されるセンシティブ属性」、つまり人種や年齢、性別などに基づいて分類。
さらにそのデータをセンサスデータ(これは国勢調査や雇用データを意味するが、全社的なダイバーシティレポートのような社内データも含まれる)や企業内の多様性報告と比較して”多様性スコア”を計算するものだ。
しかし、コンピュータビジョン企業Mashginの創業者、Mukul Dhankhar氏は批判的な見解を示している。
「写真から人の年齢や性別、人種を正確に判断するのは困難です。特に、複数の人種の背景を持つ人やジェンダーノンコンフォーミングな人々にはどう対応するのか、この特許申請には答えがありません」Dhankhar氏は指摘した。
“バイアス問題”を乗り越えられるか
実際の人物を評価することもそうだが、そもそも、AIモデル自体が一種の”バイアス”を持っている可能性もあり、それが結果に反映されることが懸念されている。
もし訓練データが特定の人種や性別に偏っていると、AIシステムはその集団に対する評価が高くなる可能性があり、逆に、少数派の集団は不当に低く評価される可能性があるのだ。
Dhankhar氏は「モデルやアルゴリズム自体がどのようにバイアスを排除するのかについて、詳細は言及されていない」と付け加えている。
この指摘のように、多様性には多次元的な側面がある。
年齢、性別、人種、文化的背景など、一つ一つの要素で多様性を測ることは不十分で、AIモデルがこれら複数の要素を総合的に評価できるように設計する必要がある。
そして何より、バイアスを持つ可能性があるのはAIモデルだけでなく、モデルを設計・運用する人間も同様だ。意図しない形で人間の持つ先入観や偏見がモデルに反映されることも考えられる。
「良い用途」と今後の展望
このシステムが持つ潜在能力とリスクを考慮に入れると、Adobeは非常に微妙なバランスをとる必要がある。
それでも、この技術が正しく適用されれば、AIモデルの訓練データが十分に多様かどうか──「AIは多様性を理解できるか」を確認するうえで有意義なものと言える。
うまくいけば、AIを多様性容認を促進するために使うことができるようになるのだから。
多様性と包摂性は短期間で測定や改善できるものではなく、機械学習モデルに多様性を課すことはさまざまな道徳的、倫理的問題を引き起こすかもしれない。
先陣を切ったAdobeの施策がどう影響するのか、そして「AIが多様性の確保にどれだけ寄与できるか」について、今後の研究と議論を待とう。