恐惧人工智能?你必须明白这四个道理

科普 admin 浏览 当前位置:主页 > 科普 > >正文

小编:一、克服毫无根据的恐惧 我们看到这种情况反复出现。自工业革命以来,人们一直在思考新技术对他们生活和工作的影响,今天我们看到,每一次人工智能突破之后,恐惧就会出现。尽

  在人工智能恐惧之下 你必须明白的四个道理!

  一、克服毫无根据的恐惧

  我们看到这种情况反复出现。自工业革命以来,人们一直在思考新技术对他们生活和工作的影响,今天我们看到,每一次人工智能突破之后,恐惧就会出现。尽管人工智能近年来取得了巨大进步,但其仍处于早期阶段,这带来了一定程度的不确定性。这种不确定性只有在出现问题或预期大于现实时才会加剧,从而导致误解和焦虑。作为一名直言不讳的人工智能评论家,Elon Musk利用这一误解,描绘了一场即将到来的人工智能大灾难的画面,尽管他将强大的人工智能嵌入特斯拉的汽车中。所有这些都表明,在某种程度上,我们发现自己陷入了一个危险的、不必要的炒作周期。

  我们必须克服这种毫无根据的恐惧。现实是这样的:今天没有可信的研究支持这些末日场景。他们是令人信服的小说。我喜欢看《终结者》,就像和我同龄的其他孩子一样,但这些有趣的场景无法让我们应对人工智能带来的直接威胁。

  我们面临的主要问题是偏见和多样性,这些问题比奇点和机器人暴动更直接,也更人性化。这些问题包括嵌入的偏见和缺乏多样性的领域和数据集。用有偏见的数据训练人工智能,我们可能会无意识地在人工智能中灌输我们自己的偏见。如果不加以控制,偏见会导致人工智能对某些人有利,而其他人则会付出代价。如果不增加领域的多样性,一些人将对人工智能创造背后隐藏的决策产生更大的影响。随着人工智能整合到对个人生活影响更大的决策过程中,例如招聘、贷款申请、司法审查和医疗决定,我们将需要警惕它吸收我们最坏的倾向。

  二、没有无辜的数据

  当人工智能触及最基本的人类系统时,我们需要记住它不是在真空中运行。人工智能依赖于海量数据,强大的算法可以分析这些数据,然后得出具有启示性的洞见。但是人工智能依赖训练数据。如果数据存在偏见,比如带有种族主义或性别歧视的语言,这会影响结果。无论你训练人工智能什么,结果都会被放大,因为算法会无数次地复制它的决策。在数据中未被发现的偏见逐渐显现,令人不安,这是人工智能系统开始输出反映我们自己最根深蒂固的偏见的结果。与机器人暴动不同,有偏见的人工智能并不是一个假设的风险。有偏见的人工智能在选美比赛中选择了浅色皮肤的选手,而非深色皮肤的选手。一种带有偏见的谷歌算法将黑脸归类为大猩猩。

  在一项研究中,一个有偏见的人工智能筛选简历,会更倾向于欧裔美国人(相对于非裔美国人)。在另一项研究中,有偏见的AI将男性的名字与职业导向、数学和科学词汇联系起来,同时将女性的名字与艺术概念联系在一起。就像我们自己的点击让我们处在自己的Facebook过滤器泡泡里一样,带有偏见的数据创造出了传播人类偏见的人工智能。

当前网址:http://kepujianbao.com/tech/13776.html

 
你可能喜欢的: