PeopleX AI面接に係るAI倫理ガイドライン

1. 目的

当社が提供する対話型AI面接サービス「PeopleX AI面接」(以下「本サービス」といいます。)は、学歴、性別、年齢などの形式的な情報に偏ることなく、コミュニケーション能力など、候補者の本質的な情報に向き合った面接の実現を目指したサービスです。

本サービスは、従来の採用活動が抱える時間的・地理的制約や、時として生じる無意識の偏見(バイアス)といった課題の解決に貢献し、候補者の資質や能力を公平かつ多角的に評価することが可能です。

他方で、「採用」という個人のキャリア形成において重要な場面に関わる技術であるからこそ、当社は、候補者の安心感を確保し、社会からの信頼を得るために、評価プロセスの信頼性及び安全性を継続して確保する社会的責任があると考えています。

本ガイドラインは、当社のAI面接に対する考えを示し、AI面接の健全な発展のために当社が守るべきこと、そして本サービスをご利用いただくお客様(以下「導入企業」といいます。)にご認識いただきたい内容をまとめたものです。本サービスをご利用される前に、本ガイドラインの内容をよくお読みくださいますよう、お願いいたします。

2. 共通の指針

本サービスは、個人のキャリアを左右する「採用」という重要なプロセスに関わり、また、候補者の映像や発話といった機微な個人情報を取り扱うという特性を持ちます。そのため、当社は、「AI事業者ガイドライン」が示す共通の指針を踏まえつつ、本サービスの特性に鑑み、特に以下のことを大切にしながら本サービスを提供します。

(1)公平性の確保

個人の資質や能力と本質的に関係のない事項(例:性別、本籍・出生地、信条、支持政党等)によって、不公平な採用が行われることがないよう、学習データ及びアルゴリズムにおけるバイアスの検知・軽減に最大限努めます。

(2)プライバシーの保護

面接で取得する映像、音声、発話内容等の個人情報を、個人情報保護法及び関連法令に基づき適法に取得・利用し、候補者のプライバシーを最大限尊重します。

(3)人間中心の原則

本サービスにおけるAIによる評価は、あくまで人間の採用判断を支援するための参考情報と位置づけ、最終的な判断は人間が行うことを原則とします。また、候補者が機械的なプロセスによって疎外感を感じないよう、人間的な配慮のあるサービス設計に努めます。

(4)透明性の確保

本サービスにおけるAIによる評価のやり方について、その目的、評価における主要な要素及びAIの能力と限界について、できる限り平易に説明するよう努めます。

(5)アカウンタビリティ(説明責任)

本サービスにおけるAIによる評価結果やそのやり方が及ぼす影響について説明責任を負うことを自覚し、導入企業からの正当な問い合わせや懸念に対して、誠実に対応できる体制を整備します。

3. 当社の取り組み

上記「2. 共通の指針」を踏まえ、当社は、以下の事項に取り組みます。

(1)差別的な評価の排除及び導入企業への事前通知

厚生労働省が示す「公正な採用選考を目指して」の趣旨を踏まえ、本サービスにおけるAIが候補者に対し、以下に挙げるような、個人の資質や能力と本質的に関係のない事項を判断材料として評価を行うことがないよう、技術的な制御を実装します。

また、導入企業に対し、以下に掲げるような事項を判断材料として評価を行うことが不適切であることを事前に通知し、候補者が安心してAI面接に臨める環境の実現を目指します。

(ア)個人の本質的な能力と関係ない事項

人種・民族、本籍・出生地、住宅状況、性別、性的指向、国籍、信条、社会的身分、障害の有無、家族構成・家庭環境など

    (イ)本来個人の自由であるべき事項

    宗教、政党思想など

      (2)公平性の確保に向けた取組み

      本サービスにおけるAIによる評価プロセスが特定の個人や集団に対する不当な偏見や差別をもたらすことがないよう、以下の取り組みを実施します。

      なお、当社は、バイアスを完全に排除することは技術的に困難であることを認識し、回避できないバイアスについては、それが人権や多様な文化を尊重する観点から許容可能か否か評価した上でサービスの開発・提供を行うよう、努めてまいります。

      (ア)データとデータガバナンス

      本サービスの学習・検証・テストに用いるデータが、関連性、代表性、正確性、完全性の要件を満たすよう、厳格な管理体制(データガバナンス)を構築します。

      学習データの品質管理とバイアスへの配慮

      AIの学習に用いるデータが、性別、本籍・出生地、信条といった属性に偏り、社会的な偏見を増幅させないよう、データの構成を定期的に評価し、多様性の確保に努めます。

      (イ)事前監査及び継続的なリスク管理

      本サービスの開発段階だけでなく、その後も偏見のリスクを継続的に確認し、管理する仕組みを構築します。

      ①リスク管理プロセスの確立

      偏見による差別など、起こり得るリスクを特定・分析し、対策を講じます。

      ②事前監査の実施

      開発部門とは独立した機関(AI倫理運営委員会)による事前監査を行い、本サービスが公平で安全な基準を満たしているかを確認します。

      ③フィードバックの活用と改善

      導入企業や候補者からのフィードバック(苦情等を含む)を収集・分析し、継続的な改善に繋げてまいります。

      (ウ)人間による監視

      AIによる評価において、万が一バイアスが含まれたり、不公平な判断が行われたりした場合に備え、人間が最後の砦として機能し、その偏りを検知・修正できる仕組みを設計します。

      人間の介在と最終決定権

      採用担当者などの人間が、AIの評価結果を理解・監視し、異常やバイアスの兆候を検知できるようにします。また、人間がAIの判断を最終的に覆し、修正できる権限・機能を確保します。

      (エ)導入企業への透明性

      当社がバイアス対策を徹底するだけでなく、導入企業にもリスクをご理解いただき、適切に対策してもらうための情報提供を行います。

      取扱説明書の提供

      システムの性能や限界、予見されるバイアスのリスクについて記述した取扱説明書を提供し、導入企業が自社の状況に合わせて適切な対策を講じられるよう支援します。

      (3)個人情報の適切な収集及び管理

      本サービスでは、候補者の映像や発話といった機微な個人情報を取り扱うため、データの適正な収集と管理に努めてまいります。

      (ア)データの適正な収集と厳格な管理

      面接で取得する映像、音声、発話内容等の個人情報を、個人情報保護法及び関連法令に基づき適法に取得・利用することはもちろん、利用目的の通知、保存期間の設定、削除といった一連のプロセスを管理します。

      (イ)セキュリティ対策の徹底

      セキュアな保管、厳格なアクセスコントロールを実施します。

      (4)人間中心の設計及び運用

      本サービスにおけるAIの評価を絶対的なものとせず、人間が介在し監督する体制を構築することで、候補者の不安を和らげるよう努めてまいります。

      (ア)人間的な配慮を重視したサービス設計

      候補者が機械を相手にすることによる冷たさや疎外感を感じないよう、インターフェースの設計やコミュニケーションのあり方において、人間的な配慮を追求します。

      (イ)人間による最終判断の機会の保証

      AIによる評価は、あくまで人間の採用判断を支援するための参考情報と明確に位置づけ、最終的な意思決定は必ず人間が行うことを原則とします。そのために、本サービスにおけるAIが最終的な評価を行わないよう、システムを設定します。

      (5)透明性の確保

      本サービスにおけるAIによる評価プロセスがブラックボックス化することを防ぎ、可能な範囲で透明性を高めてまいります。

      評価プロセスの説明

      AIによる評価プロセスの目的、評価における主要な要素及びAIの能力と限界について、導入企業に対し、可能な限り平易な言葉で説明するよう努めます。

      (6)アカウンタビリティ体制の構築

      問題が発生した際に、誠実に対応し、説明責任を果たす体制を構築します。

      問い合わせ・懸念への対応体制

      導入企業からの本サービスに関する正当な問い合わせや懸念に対し、迅速かつ誠実に対応するための問い合わせ窓口を整備します。

      2025年6月26日 制定

      2025年7月31日 改訂