探索负责任AI:案例、书籍及论文汇总

需积分: 9 0 下载量 46 浏览量 更新于2024-11-23 收藏 10KB ZIP 举报
资源摘要信息:"这份文档集合名为'ResponsibleAI',它收集了关于人工智能(AI)责任案例的新闻报道、书籍和研究论文。这个集合的目的在于分析这些案例,从而学习如何在AI系统的构建中避免重犯过去的错误。文档集合面向工程师、数据科学家以及那些需要针对实际问题做出技术解决方案决策的专业人士。通过了解这些案例,人们希望能够更好地做出决策,无论是选择设计新的系统还是决定不采用技术解决方案,以此帮助避免重复历史上的错误。 集合中的内容主要涉及以下几个方面: 1. 公平性问题:文档中提到了AI在贷款审批、雇员招聘、员工评价、学校教师评估等方面可能出现的公平性问题。例如,休斯顿学校在教师评估方面面临的官司就指出了在AI系统中评估员工可能出现的法律和道德问题。 2. 亚马逊案例:集合提到了亚马逊如何使用自动跟踪系统来解雇仓库工人以提高生产力,以及这背后可能存在的算法歧视问题。 3. 法律诉讼:集合中还包含了关于使用所谓的“歧视性”算法在法庭判决中出现的问题,如审前风险评估和刑事判决中的机器偏差。 ***PAS算法:文档深入分析了COMPAS算法(用于预测被告再犯的系统),以及它如何被分析和质疑其公平性。 5. GitHub资源:为 COMPAS 分析提供了专门的 GitHub 存储库,说明了有关社区如何合作分析和改进此类算法。 6. 人工智能与司法:集合探讨了AI在司法领域的应用,如预测性警务和其他执法用例,以及AI如何可能因为数据问题而侵犯民权。 7. 面部识别技术:文档提到了亚马逊面部识别技术错误地将28名国会议员与面部照片相匹配的案例,揭示了技术准确性的问题以及对隐私权的潜在威胁。 8. 永久阵容:文档提到了一个名为“永久阵容”的概念,可能指的是在某些领域(如执法)中由于AI决策而产生的长期负面影响。 在标签方面,集合强调了与AI相关的几个关键概念:机器学习(machine-learning)、人工智能(artificial-intelligence)、偏见(bias)、公平(fairness)、歧视(discrimination)以及负责任的AI(responsible-ai)。标签突出了文档集合旨在解决的核心问题,即如何在设计和实施AI系统时确保公平性和透明度。 最后,集合中提到的'压缩包子文件的文件名称列表'仅包含了'ResponsibleAI-main',这表明文档集合可能是通过压缩文件的形式发布的,但没有提供更多的文件列表信息。" 标签:"machine-learning, artificial-intelligence, bias, fairness, discrimination, responsible-ai, hiring-algorithms"