人工智能快速发展,未来的伦理成本是多少?

人工智能快速发展,未来的伦理成本是多少?

  • 一位技术伦理专家表示,围绕人工智能的担忧包括它会放大潜在有害的偏见和刻板印象。
  • 她说,如果我们不考虑人工智能可能带来的负面后果或社会危害,就会产生“道德债务”。
  • 减少道德债务的唯一方法是花时间提前考虑可能出错的事情——但这不是技术人员必须被教导去做的事情,她补充道。

随着公众对人工智能的伦理和社会影响的关注不断增加,似乎是时候放慢脚步了。但在科技公司内部,情绪却恰恰相反。正如《纽约时报》报道的那样,随着大型科技公司的AI竞赛升温,“此时担心可以稍后修复的事情绝对是致命的错误”,一位微软高管在一封关于生成AI的内部电子邮件中写道。

换句话说,是时候“快速行动,打破陈规”,引用马克·扎克伯格 (Mark Zuckerberg) 的老格言,当然,当你弄坏东西时,你以后可能不得不修理它们——但要付出代价。

在软件开发中,术语“技术债务”指的是由于现在选择更快、更不谨慎的解决方案而导致未来修复的隐含成本。急于上市可能意味着发布尚未准备好的软件,知道一旦它进入市场,您就会发现错误是什么,然后有望修复它们。

然而,关于生成式人工智能的负面新闻报道往往与这些错误无关,相反,很多人担心的是人工智能系统会放大有害的偏见和刻板印象,以及学生欺骗性地使用人工智能。我们听说过隐私问题、人们被错误信息愚弄、劳动剥削以及对人类工作可能会被多快取代的担忧等等,这些问题不是软件故障,意识到一项技术会加剧压迫或偏见与了解到网站上的按钮不起作用是截然不同的。

作为一名技术伦理教育者和研究者,我对这些“错误”思考了很多。这里累积的不仅仅是技术债务,还有道德债务。正如技术债务可能源于开发过程中有限的测试,道德债务源于不考虑可能的负面后果或社会危害。尤其是道德债务,承担债务的人很少是最终为此付出代价的人。

竞赛

OpenAI的ChatGPT于2022年11月发布,这是当今AI竞赛的发令枪,我想象着债务账本开始填满。

几个月内,谷歌和微软发布了他们自己的生成人工智能程序,这些程序似乎匆忙推向市场以努力跟上。当谷歌的聊天机器人巴德在公司自己的演示中自信地提供错误答案时,谷歌的股价下跌。人们可能认为微软在聊天机器人方面会特别谨慎,考虑到 Tay,它基于 Twitter 的机器人在吐出厌恶女性和白人至上主义的谈话要点后几乎在2016年立即关闭。然而,与人工智能驱动的Bing的早期对话让一些用户感到不安,并且它重复了已知的错误信息。

人工智能快速发展,未来的伦理成本是多少?

这些匆忙发布的社会债务到期时,我希望我们会听到提到意想不到或未预料到的后果,毕竟,即使有了道德准则,OpenAI、微软或谷歌也无法预见未来。在技​​术完全发展之前,人们怎么知道可能会出现哪些社会问题?

这种困境的根源是不确定性,这是许多技术革命的常见副作用,但在人工智能的情况下被放大了,毕竟,AI的部分意义在于它的行为无法提前知晓,人工智能可能不是为了产生负面后果而设计的,但它是为了产生不可预见的结果而设计的。

然而,暗示技术专家不能准确推测其中许多后果可能是什么是虚伪的,到目前为止,已经有无数例子说明人工智能如何重现偏见并加剧社会不平等,但科技公司自己很少公开指出这些问题。例如,是外部研究人员在广泛使用的商业面部分析系统和应用于约2亿美国人的医疗风险预测算法中发现了种族偏见。算法正义联盟和分布式人工智能研究所等学术界和宣传或研究组织正在做很多这样的工作:事后识别危害,如果公司继续解雇伦理学家,这种模式似乎也不会改变。

投机

有时我将自己描述为一个技术乐观主义者,他像悲观主义者一样思考和准备,减少道德债务的唯一方法是花时间提前考虑可能出错的事情——但这不是技术人员必须被教导去做的事情。

科学家和标志性科幻作家艾萨克·阿西莫夫曾说过,科幻作家“预见到不可避免的事情,尽管问题和灾难可能是不可避免的,但解决方案却并非如此。” 当然,科幻小说作家的任务往往不是开发这些解决方案——但现在,开发人工智能的技术人员是。

那么人工智能设计师如何才能学会像科幻作家一样思考呢?我目前的一个研究项目侧重于开发支持这种道德推测过程的方法,我并不是说设计时要考虑到遥远的机器人大战;我的意思是完全考虑未来后果的能力,包括在不久的将来。

人工智能快速发展,未来的伦理成本是多少?

这是我在教学中探索了一段时间的主题,鼓励学生思考科幻技术的伦理含义,以便让他们做好准备,对他们可能创造的技术做同样的事情,我开发的一项练习称为“黑镜作家室”,学生可以在其中推测社交媒体算法和自动驾驶汽车等技术可能带来的负面影响。通常这些讨论是基于过去的模式或不良行为者的可能性。

博士 候选人Shamika Klassen和我在一项研究中评估了这项教学活动,发现鼓励计算机专业的学生想象未来可能出现什么问题,然后集思广益,讨论我们如何首先避免这种未来,这在教学上是有好处的。

但是,目的不是让学生为那些遥远的未来做好准备;它是将推测作为一种可以立即应用的技能来教授,这项技能对于帮助学生想象对其他人的伤害尤为重要,因为技术伤害通常不成比例地影响在计算专业中代表性不足的边缘化群体。我研究的下一步是将这些道德推测策略转化为现实世界的技术设计团队。

2023年3月,一封拥有数千人签名的公开信主张暂停训练比 GPT-4更强大的人工智能系统,其作者警告说,如果不加以控制,人工智能的发展“最终可能会在数量上超过我们、智胜我们、淘汰我们并取代我们”,甚至会导致“我们的文明失去控制”。

正如对这封信的批评指出的那样,这种对假设风险的关注忽视了今天发生的实际危害,尽管如此,我认为AI伦理学家对AI开发需要放慢速度几乎没有异议——开发人员举手并引用“意外后果”不会削减它。

我们进入“AI竞赛”仅几个月,速度显着加快,而且我认为已经很明显,道德考虑已经被抛在脑后了,但债务最终会到期——历史表明,大型科技公司的高管和投资者可能不会为此买单。

本站是提供个人分享的知识,所有内容均来源于网络,不代表本人观点。如有侵权,请告知!

发表评论

登录后才能评论