2021年11月25日にオンラインで開催された「ピープルアナリティクス・カンファレンス2021」のパネルディスカッションに山本龍彦慶応義塾大学大学院教授、数藤雅彦弁護士、大島義則弁護士が登壇。炎上した事例や世界の潮流なども踏まえ、人事データの活用における法的・倫理的な注意点について解説した。人事・人材にまつわるデータ活用が一般化・高度化しているが、ピープルアナリティクス(PA)の活用にあたっては透明性や説明性の確保が必要とされる。今後ますますPA活用が拡大していく中で、経営や人事が留意すべきポイントはどこにあるのか。(取材・文=加納 美紀)

データ活用時には人格への配慮が必要

 人事データ分析に基づいた効率的な採用や配置は一般化・高度化していくと予想されるが、中には社会的批判を受けて“炎上”する事例もある。五常総合法律事務所の弁護士・数藤雅彦氏は「人事データ活用時に問題となるポイントの一つは、プロファイリング[]。勘だけではなく、データに基づく客観的かつ効率的な人事ができるため、PAではプロファイリングが活用されているが、データ活用には3つの問題が潜んでいる」と指摘する。

[注]パーソナルデータとAIなどのアルゴリズムを用いて特定個人の趣味嗜好(しこう)、能力、信用力、知性、振る舞いなどを分析または予測すること
数藤 雅彦 氏
数藤 雅彦 氏
五常総合法律事務所 弁護士

 1つ目はブラックボックス問題だ。AI(人工知能)やアルゴリズムを組み込んでデータを分析するが、その過程が不透明で納得感を得にくい場合があるという問題である。2つ目はバイアス問題。人間はコンピューターを信用しやすいというバイアスや、例えば男性有利・女性不利といった過去の偏ったデータを使うことで差別を再生産しやすいという問題だ。3つ目はゲーミング問題で、あらかじめAIの評価軸に応じた対策をとることで本来よりも有利な結果が出るため、公正な評価ではなくなる恐れがあることだ。

 続いて、数藤氏はPA活用に伴って問題が生じた5つの事例を紹介した。米国ではアマゾン・ドットコムが開発したAI活用の採用プログラムにおいて女性差別が発覚した件や、ハイアービューが開発したAIによる面接評価技術に対して、権利団体が「ジェンダーや人種バイアスがかかりやすい」と調査を要請し、顔分析による求職者評価を中止した事例がある。

 日本でも、リクルートキャリアが就活生の内定辞退率予測を企業に提供したことが大きな問題となった「リクナビ事件」や、日本IBMのAIを活用した賃金決定システムに対して労働組合が情報開示を求めた事例、また企業が調査会社に応募者の裏アカウント(ツイッターなどの匿名アカウント)の調査を依頼して広く情報収集することが、職業安定法の指針などに抵触する可能性があることなどが挙げられた。

 また、欧州では2016年制定(2018年5月施行)のGDPR(一般データ保護規則)でプロファイリングが一定の範囲で規制されている。日本でも2022年4月施行の改正個人情報保護法で、個人情報の不適正利用の禁止としてプロファイリングも規制され得るほか、クッキー(Cookie)など個人関連情報の提供時に一定事項の確認が義務付けられるなど、これまで以上に取り扱いに注意を払う必要が出てきていることにも触れた。

 こうした流れを踏まえ、数藤氏は「人事データは生身の人間に関するものなので、人格が尊重されるべきだ」と話し、データを適正に扱うために「人事データを使う目的を社内で明確にすること」「従業員や求職者に対して必要な範囲で十分な説明をすること」「AI任せにせず人間が関与して判断すること」――の3点に留意することを呼びかけた。

この記事は登録会員限定(無料)です。

登録会員お申し込み会員登録