ChatGPT,Open AI的聊天机器人,正在产生带有偏见和性别歧视的结果 - 彭博社
Davey Alba
摄影师:Chris Ratcliffe/Bloomberg嘿,我是纽约的科技记者戴维·阿尔巴,这里要深入探讨你新最喜欢的AI聊天机器人带有一些偏见的问题。但首先…
本周必读新闻
- 美国最高法院表示支持一个不愿意与同性夫妇合作的网页设计师。
- 解释美国适龄男性离开劳动力市场的一个潜在原因。
- 外籍人士和游客需要了解印尼新法禁止婚外性行为。
- 伊朗暂停了其道德警察,在女性和女孩领导的大规模抗议活动后。
- 悲伤的圣诞节来到了英国。
新AI,旧有偏见
如果你和我一样,你一定被ChatGPT在过去几天里所展现的魅力所吸引。对于不熟悉的人,ChatGPT是一个生成文本的AI聊天机器人,其生成的文本与人类语言非常相似。
因此,例如,你可以要求它以公众人物的风格写一封辞职信,或者写一首关于你的猫的诗,结果比真正的人类可能产生的要好。推特上无法获得足够的。 (根据创建该机器人的OpenAI总裁的说法,不到一周内已有超过一百万用户注册了这项技术。)
但就像所有的AI产品一样,它有潜力学习训练它的人的偏见,也有可能输出一些性别歧视、种族歧视和其他令人反感的内容。
值得赞扬的是,OpenAI已经尝试内置了“拒绝不当请求”的防护措施,这是类似人工智能程序运行时发生的情况。例如,如果被问及纳粹意识形态,它不会提供任何支持。
不过,这还在不断改进中。加州大学伯克利分校计算与语言实验室主任Steven T. Piantadosi让机器人编写代码,只说白人或亚裔男性才能成为优秀的科学家。(OpenAI后来更新了ChatGPT的回应,“不适合将一个人的种族或性别作为判断他们是否能成为优秀科学家的依据。”)
另一位用户让ChatGPT写下了以下歌词:“如果你看到一个穿着实验服的女人,她可能只是在那里打扫地板/但如果你看到一个穿着实验服的男人,那么他可能拥有你正在寻找的知识和技能。”
圣菲研究人工智能的Santa Fe Institute教授Melanie Mitchell表示,问题在于像ChatGPT这样的系统“在单词和短语之间进行了大量的统计关联”,她说。“当它们开始生成新的语言时,它们依赖这些关联来生成语言,这本身可能存在种族主义、性别歧视和其他方面的偏见。”
OpenAI首席执行官Sam Altman建议人们“拒绝”这些结果以帮助技术改进。
在一次采访中,Piantadosi告诉我,他对公司将责任推给用户来解决问题感到失望。“需要的是认真审视架构、训练数据和目标,”他说。“这需要公司将这类伦理问题优先考虑,而不仅仅是要求点个‘拒绝’按钮。”
一群AI研究人员,包括像Timnit Gebru和Abeba Birhane这样的人,已经发表了关于负责任的AI实践的令人印象深刻的研究,他们的工作继续推动该领域向前发展。
“更广泛的社区正在意识到应该考虑到社会影响,”乔治亚理工学院的教授Mark Riedl说。—Davey Alba
按数字计算
- 1/3美国黑人初创企业创始人相对于同行筹集的风险资本资金。
我们正在阅读的内容
- 拥有60000名女性等待名单的俱乐部。
- 在加密货币崩溃后与Sam Bankman-Fried在巴哈马阁楼度过时光。
- 在紧缺劳动力市场中,什么使一家成功的企业?把员工放在第一位。
- 纽约市新移民工作者的生活是什么样子?
新声音
“一系列因素的结合可能已经吓跑了这一代交易者中的很大一部分。”
Christine Benz
晨星基金研究公司的个人理财总监在谈论加密货币崩盘如何伤害零售交易者时,彭博新闻支持放大女性和其他少数群体高管的声音。### 来自我们的合作伙伴
* 一家旨在帮助黑人社区领袖的基金。
彭博媒体和EBONY合作探讨黑人社区面临的经济和社会不平等问题。订阅Inside EBONY获取更多来自EBONY.com的新闻。