「パナソニックもAI指針」「日立は倫理原則を策定」。

 こういう見出しが付いた記事が5月17日付日本経済新聞に掲載された。人工知能(AI)を組み込んだ「製品開発などの際の倫理ルールを作る動きが日本の大手企業で広がってきた」という内容である。

 記事によると先行するソニーグループはAI倫理の指針を用意しており「製品の企画から販売後まで『透明性』『プライバシー保護』などの項目に沿って審査する」。

 ここで言うAIは機械学習と呼ばれる手法を指す。大量の画像データをコンピュータに読み込ませると何の画像であるか判断できるようになる。だが、技術的に可能だからといって何にでも使ってよいわけではなく、例えばどのように判断しているのかが分かるように透明性を担保する、といったことが必要になる。

 AIをはじめとするデジタル技術を活用した新しい製品やサービスの実用にあたっては、透明性あるいはアカウンタビリティ、プライバシー、セキュリティ、公平性といった点について検証しなければならない。

 7年前の2014年に、ITリサーチ最大手の米ガートナーは「倫理スキル」が今後3年以内に求められると指摘していた。デジタルビジネスあるいはデジタルトランスフォーメーション(DX)といった、AIを含むITを使うビジネスの創出ないし変革における倫理スキルとは、デジタルビジネスやDXに関するガイドラインやルールを自ら考え、決めるスキルである。場合によっては法制化を進めることになる。

 本連載の主旨は「デジタル時代の人事戦略」を体系立てて考えることであり、当初示した論点の一つに「情報のセキュリティ、情報のガバナンスをどうしていくか」があった(『「デジタル人材」を巡る人事部の誤解』)。情報を正しく使い、守ることにも倫理スキルは関係しており、社員に身に付けてもらうことは人事部門の仕事に入る。