來源:經濟日報 發布時間:2024-6-3 9:43
在新一輪的求職季,部分企業改變了傳統的線下面試模式,轉而采用“人工智能+面試”的新方式。這種方式的好處在于,能夠更高效地完成面試人員與崗位工作內容的勝任能力評估。目前,市場上常見的人工智能面試產品主要是以職位匹配度、崗位勝任能力的算法模型為基礎,通過對面試者進行面部表情、情緒語氣、邏輯表達、簡歷信息問答等方式進行綜合性評判。
人工智能面試屬于正常的技術應用形態,至于該類應用究竟是否構成對人的主體地位的顛覆,更關鍵的判斷要素在于面試結果究竟是否作為企業決定錄用的決定因素。任何信息技術的應用都不是完全安全可靠的,固有的技術缺陷和漏洞可能導致生成結果不準確。倘若招聘企業以此作為錄用與否的決定要素,可能導致企業因各類非主要原因錯過優秀人才,求職者因自動化決策遭受就業歧視。
從法律層面看,招聘企業應當按照個人信息保護法、《生成式人工智能服務管理暫行辦法》等法律法規的要求規范使用人工智能面試。一方面,為了預防自動化決策對人格尊嚴和自由可能產生的負面影響,個人信息保護法明確個人信息處理者在通過自動化決策方式作出對個人權益有重大影響的決定時,個人有權拒絕個人信息處理者僅通過自動化決策的方式作出決定。因此,招聘企業既不能以強制或變相強制的方式要求求職者接受人工智能面試,也不能不在事前階段告知求職者人工智能面試的決策結果對錄用的影響。另一方面,招聘企業應當確保人工智能面試決策結果的準確性,并預防潛在的就業歧視問題。按照《生成式人工智能服務管理暫行辦法》第4條的要求,招聘企業在使用生成式人工智能服務時,除了需要滿足合法性、合理性的基礎要求外,還應當采取有效措施防止產生地域、性別、年齡、職業、健康等歧視。結合面試活動的特點,招聘企業還需要提升人工智能面試的透明度,提高生成內容的準確性和可靠性。
為了確保招聘企業能夠真正落實平等就業、個人信息保護等法定義務,監管機構應當采取主動措施督促招聘企業合理使用人工智能面試,不強制或變相強制求職者接受。人工智能面試因其潛在的侵權風險,已經不再屬于企業內部的“經營自由”范疇,更需要監管機構主動干預,通過落實算法備案、算法透明等監管機制,保障勞動者的合法權益,確保人工智能面試過程與結果的公正性、準確性,有效解決因技術濫用而引發的就業歧視問題。(本文來源:經濟日報 作者:趙精武)