题目
人脸识别算法对女性和深色人种识别准确率较低,这体现了()A. 技术局限性B. 算法偏见和歧视C. 硬件故障D. 正常误差
人脸识别算法对女性和深色人种识别准确率较低,这体现了()
A. 技术局限性
B. 算法偏见和歧视
C. 硬件故障
D. 正常误差
题目解答
答案
B. 算法偏见和歧视
解析
考查要点:本题主要考查对人工智能技术中算法偏见概念的理解,以及分析实际现象背后技术伦理问题的能力。
解题核心思路:
需明确题目中“特定群体识别准确率低”的本质原因。关键在于区分技术局限性与算法偏见:前者指技术本身的客观限制,后者则指向数据或算法设计中的不公平性。需结合选项排除法,锁定正确答案。
破题关键点:
- 现象本质:识别准确率差异针对特定群体(女性、深色人种),暗示数据或算法设计中的系统性偏差。
- 选项辨析:硬件故障、正常误差与现象无关;技术局限性强调普遍性问题,而非群体针对性问题。
选项分析:
- A. 技术局限性:指技术尚未成熟或能力边界,例如无法处理超复杂场景。但题目描述是特定群体的识别问题,属于数据或算法设计层面的偏差,而非技术整体限制。
- B. 算法偏见和歧视:若训练数据中女性、深色人种样本不足,或标注存在偏差,算法可能“继承”这些偏见,导致识别效果不公。此选项直接对应现象本质。
- C. 硬件故障:题目未提及设备问题,与现象无关。
- D. 正常误差:指随机误差,而题目描述是系统性针对特定群体的低准确率,不符合“正常误差”定义。
结论:现象由算法设计或数据偏差导致,属于算法偏见和歧视。