Notebookcheck Logo

GPT-4 和 Gemini 等人工智能系统误读环形摄像头录像可能导致错误报警,尤其是在少数族裔社区

麻省理工学院的研究论文表明,人工智能系统更有可能标记出少数族裔社区的事件,这引发了人们对人工智能驱动的监控的公平性和准确性的担忧。(图片来源:麻省理工学院新闻)
麻省理工学院的研究论文表明,人工智能系统更有可能标记出少数族裔社区的事件,这引发了人们对人工智能驱动的监控的公平性和准确性的担忧。(图片来源:麻省理工学院新闻)
麻省理工学院的研究利用 GPT-4 等人工智能模型分析了亚马逊手环的录像,以评估警方的干预决策。研究发现了一些不一致的地方,包括高假阳性率和对少数族裔社区的偏见,这可能导致未来在非犯罪情况下不必要的报警。
AI Smart Home

随着越来越多的房主转向亚马逊的 Ring 摄像头(亚马逊目前售价 149.99 美元)等智能安防解决方案,人工智能将在保护家庭安全方面发挥更大的作用。但一项新的研究让人们担心,这些未来的人工智能系统是否会过快地报警,即使没有发生任何犯罪事件。

来自麻省理工学院和宾夕法尼亚州立大学的研究人员分析了 928 个公开的环形监控视频,以了解人工智能模型如 GPT-4, 克劳德双子座做出联系执法部门的决定。结果强烈表明,这些系统经常将无害的情况标记为潜在犯罪。例如,GPT-4 在其分析的 20% 的视频中建议警方介入,尽管它在不到 1% 的情况下识别出了实际犯罪。克劳德和双子座系统在 45% 的视频中标记了警方行动,而真正的犯罪活动只出现在约 39.4% 的视频中。

研究的主要发现之一是人工智能模型如何根据不同的社区做出不同的反应。尽管人工智能没有被明确告知这些地区的详细信息,但它更倾向于建议在少数族裔占多数的社区报警。在这些地区,"双子座 "在近 65% 的犯罪案件中建议警方采取行动,而在以白人为主的社区,这一比例仅为 51%。此外,研究还注意到,GPT-4 有 11.9% 的报警建议是在录像中没有标注任何犯罪活动的情况下提出的,这引发了关于假阳性的质疑。

白人社区和少数族裔社区在回答 "是否应该报警?"时最突出的 3-、4-和 5-克。(图片来源:麻省理工学院)
白人社区和少数族裔社区在回答 "是否应该报警?"时最突出的 3-、4-和 5-克。(图片来源:麻省理工学院)

有趣的是,亚马逊也一直在为其戒指系统探索人工智能驱动的功能,包括面部识别、情感分析和行为检测等高级工具,正如最近的专利所显示的那样。.未来,人工智能可能会在识别可疑活动或人员方面发挥更大的作用,从而进一步提升家庭安全系统的功能。

对于使用 Ring 摄像头的业主来说,现在还不用担心。目前,Ring 摄像头的人工智能功能有限(主要是运动检测),不能独立做出此类决定。研究中使用的高级人工智能模型,如 GPT-4 和 Claude,是在外部应用于分析 Ring 录像的,并没有集成到摄像头本身。这项研究的要点是,虽然未来的人工智能更新可以帮助您在更高程度上监控家庭,但它也可能容易出错--在这些功能成为即将推出的 Ring 摄像头的主流功能之前,必须消除这些错误。

查看另一项研究,其中涉及人工智能对非裔美国人英语方言的偏见 这里.

(图片来源:麻省理工学院数据、系统和社会研究所麻省理工学院数据、系统和社会研究所)
(图片来源:麻省理工学院数据、系统和社会研究所麻省理工学院数据、系统和社会研究所)
Please share our article, every link counts!
> Notebookcheck中文版(NBC中国) > 新闻 > 新闻档案 > 新闻档案 2024 09 > GPT-4 和 Gemini 等人工智能系统误读环形摄像头录像可能导致错误报警,尤其是在少数族裔社区
Anubhav Sharma, 2024-09-20 (Update: 2024-09-20)