近日,一项由英国和中国的研究团队共同完成的研究发现,自动驾驶汽车中的行人检测软件可能对不同肤色、性别和年龄的行人有不同的识别效果,导致有色人种和儿童面临更高的安全风险。 研究团队测试了八种流行的行人检测软件在不同情况下的准确性。结果显示,性别对识别效果的影响较小,但肤色和年龄则有明显的差异。相比于浅肤色和成年人,深肤色和儿童被检测到的概率分别低了7.52%和19.67%。 研究团队认为,这种偏见是由于许多公司使用的开源AI系统中存在的偏见造成的。这些开源AI系统是基于大量数据训练出来的,但这些数据并不一定能代表真实世界中的多样性。因此,当这些AI系统被用于自动驾驶汽车时,就可能出现对某些群体不公平或歧视的情况。 为此,研究团队呼吁立法者对自动驾驶汽车软件进行监管,以防止其检测系统出现偏见。