我们的数据还反映了我们对待妇

A comprehensive collection of phone data for research analysis.
Post Reply
hasinam2206
Posts: 364
Joined: Mon Dec 23, 2024 2:46 am

我们的数据还反映了我们对待妇

Post by hasinam2206 »

女和其他少数群体的不公正历史。这是一个更加难以解决的问题。人工智能记者梅雷迪斯·布鲁萨德 (Meredith Broussard) 表示:“我们无法通过输入更好的数据来修复算法,因为没有更好的数据。”技术无法纠正系统的不公正。布鲁萨德说:“根本问题在于社会。”

迈向更具包容性的人工智能
数据告诉我们我们过去是怎样的,但没有告诉我们我们想要土耳其移动数据库 成为怎样的。为了建立不会继续延续不公正的人工智能模型,我们必须首先意识到这个问题。如果我们将控制权交给人工智能,让其根据我们的过去做出不加任何过滤的决策,那么我们的未来也不会更好,这难道不是关键吗?建设更加美好的未来?

对于布鲁萨德来说,这也意味着决定不在某些特别敏感的流程中使用人工智能。他举了警方使用面部识别技术的例子:布鲁萨德认为这是一种非常危险的使用,因为它可能导致不公正的逮捕。 “如果你不使用电脑做某事,这并不意味着世界末日。 “你不能仅仅因为一个技术系统存在就认定它是好的。”因此,我们得出的第一个结论是,使用这些技术时应极其谨慎和判断,有时最好不要使用这些技术。

另一方面,正如我们之前提到的,重要的是鼓励女性和其他少数群体参与该领域,以便我们的技术能够以不同的视角为不同的用户开发。

包容性人工智能
从这个意义上来说,致力于包容性的公共和私人组织的工作至关重要。科技女孩和科技女性 (MeT)是两个为女性和技术领域的多元化人士提供培训、讲座、计划、工作空间和机会的组织。在私营部门,Globant和Moove It等公司为世界各地的女性提供培训和其他举措。

最重要的是,正如西班牙数字化和人工智能国务大臣卡梅·阿蒂加斯(Carme Artigas)所说:“我们必须不能放松警惕。我们不能将51%的女性人才排除在尚待开发的国家模式和全球媒介的设计之外。”
Post Reply