题目
在人工智能伦理问题中,以下哪一项最直接涉及算法偏见?A. 数据集的多样性不足B. 模型训练时间过长C. 硬件资源分配不均D. 用户界面设计不合理
在人工智能伦理问题中,以下哪一项最直接涉及算法偏见? A. 数据集的多样性不足 B. 模型训练时间过长 C. 硬件资源分配不均 D. 用户界面设计不合理
题目解答
答案
A
解析
算法偏见的核心在于算法输出的不公平性,其直接成因是训练数据的偏差。若数据集缺乏多样性,模型会“继承”数据中的片面性,导致对某些群体的误判。本题需识别选项中与数据偏差最相关的因素。
选项分析
A. 数据集的多样性不足
关键点:数据是算法学习的“知识来源”。若数据仅反映部分特征(如某群体样本过少),模型会放大这种偏差,形成偏见。例如,面部识别系统若训练数据以某肤色为主,可能对其他肤色效果差。
B. 模型训练时间过长
无关性:训练时间影响效率和成本,但与算法公平性无关。时间长短不会直接导致结果偏差。
C. 硬件资源分配不均
资源问题:硬件影响计算能力,但与数据内容无关。资源分配不均不会直接导致算法偏见。
D. 用户界面设计不合理
用户体验问题:界面设计影响使用便捷性,与算法逻辑和数据无关联。