中工娱乐

工人日报 2024年06月04日 星期一

纠正大模型性别偏差也是科技向善

老鹰
《工人日报》(2024年06月04日 05版)

据《中国青年报》5月29日报道,近日有学者研究发现,不少大模型可能因为训练数据的性别偏见而产生对特定性别的刻板印象。比如,大模型画出的护士都是女性,给企业家画像则是男性。

大模型是指拥有超大规模参数、超强计算资源的机器学习模型,能够处理海量数据,完成各种复杂任务,如自然语言处理、图像识别等。如果大模型存在偏见,不仅限制了模型的准确性,也可能在人机交互中加深性别歧视。比如,有学者之前在做AI编舞的时候,没有想到性别问题,采集的舞蹈视频基本都由女性进行表演,缺少男性样本,这给人的感觉是舞蹈演员只有女性。由此,不少学者开始反思大模型中的性别偏差问题,并引发学界关注。

男女平等的理念在今天已经深入人心。但让人遗憾的是,作为前沿科技领域的大模型中却存在某些性别偏差问题。如果不改变这种现象,不仅容易加深某些人刻板的性别偏见,还可能耳濡目染误导一些人的性别观念。

而大模型性别偏差的根源在于,大模型处理的各种数据、资料等均来源于现实社会,由于一段时间以来社会上存在性别偏见,大模型性别偏差实际就是社会上性别偏见的一种投射。加之,一些大模型研发者、数据训练者或AI使用者可能缺乏性别平等意识,导致大模型处理结果中出现性别偏差。

作为广受关注、广泛使用的大模型及其产品,要在推动人类男女平等方面发挥示范作用,这也是科技向善的重要体现。对此,相关学者意识到问题所在,并探讨解决之道,都是纠正大模型性别偏差的积极表现。

部分学者提出,应在社会层面呼吁、倡导打破性别刻板印象,纠正固有的性别偏见,减少对大模型的性别化影响。同时,大模型的研发者、数据训练者和AI使用者等关键环节的操作者,需要积极培养和提升自身的性别平等意识。有关部门也有必要在制定或完善针对大型语言模型和人工智能的相关法律法规时,特别加入保障性别平等的条款。各方共同推动人工智能向更加公平、包容的方向发展。

关于我们 | 版权声明 | 违法和不良信息举报电话:010-84151598 | 网络敲诈和有偿删帖举报电话:010-84151598
Copyright © 2008-2021 by www.workercn.cn. all rights reserved
扫码关注

中工网微信


中工网微博


中工网抖音


工人日报
客户端
×