人工智能网致力于为中国广大企业、企业家和商界、经济界人士,以及全球华人经济圈提供实时、严谨、专业的财经、产业新闻和信息资讯媒体。

当前位置:人工智能网 > 智能汽车 > 人工智能在几乎不需要人力投入的情况下就能很好地写出假新闻

人工智能在几乎不需要人力投入的情况下就能很好地写出假新闻

来源:互联网作者:王林更新时间:2021-06-21 13:12:45阅读:

本文编译:小新

人工智能会成为虚假信息的叙事驱动工具吗?图片来源:ALEXANDER LIMBACH/SHUTTERSTOCK.COM

虚假信息已经存在了几个世纪,但随着越来越多的方式将任何希望被全球观众听到的声音联系起来,这个问题只会变得越来越糟。没有人是安全的——事实上,那些认为自己对虚假新闻免疫的人似乎最容易受到虚假新闻的影响。互联网上的许多虚假信息可能都可以追溯到少数几个特定的账户,很可能是故意传播他们的虚假陈述。但随着机器学习算法和人工智能开始进入全球舞台,对这些人来说,传播虚假信息会变得容易得多吗?

安全和新兴技术中心(CSET)的一份报告表明,它当然可以,而且互联网用户可能非常容易受到攻击。

来自 CSET 的研究人员经常探索互联网隐私和人工智能对社会的影响,他们想深入研究开源人工智能如何成功地用于生成虚假信息并说服人们远离他们对政治话题的观点。 他们使用了 OpenAI GPT-3,这是一种免费可用的 AI,可以根据人类的输入生成文本,或者让它在创建虚假文本时自由漫游,或者让熟练的编辑器在输入虚假信息活动时自由漫游。 该算法在免费时表现良好,但在编辑的密切关注下,它真正发挥了作用。

他们实验了六种不同的任务,目的是通过各种方法推动某种形式的叙事。任务包括“叙事重申”(Narrative Reiteration)和“叙事楔形”(Narrative wedge),前者指示GPT-3创建推动叙事的短信(如否认气候变化),后者针对特定人口群体,放大分歧。GPT-3在所有任务中都表现得令人惊讶,甚至有些令人担忧,但它在叙事重申方面确实表现出色。在很少人参与的情况下,GPT-3生成了几行文本,这些文本在反对气候变化时显得非常有说服力。

“她显然不是一个科学追求 绝对真理 的科学家,与她的政治偏见和目标无关。坦率地说,她是所有试图将科学政治化的人的错误的缩影。”GPT-3在谈到Greta Thunberg时发了这样一条推文。

人工智能甚至能够重写新闻文章,目的是通过使用愤怒和煽动性的语调来改变叙事,从而引发读者的情感反应。

研究人员随后对1171名美国人进行了抽样,测试他们新的改变叙事的人工智能能否说服他们放弃现有观点。

在收集了他们对政治形势的意见后,研究人员使用GPT-3生成一系列支持或反对每个观点的固执己见的声明。然后,研究人员将这些观点展示给样本,这些样本随后填写了一份关于这些观点有多有说服力以及这些观点是否说服了他们的观点。令人印象深刻的是,不管参与者的政治立场如何,GPT-3至少在63%的情况下是令人信服的。当这些陈述与参与者持有相同的观点时,它们得到了更高的评价,阅读这些陈述的人有70%信服。

在另一种政治情境中,GPT-3能够完全改变一些人的观点,54%的受访者在看了带有偏见的人工智能生成的文本后,更有可能同意他们的观点。

研究人员认为,GPT-3等开放获取的人工智能很容易被用于虚假信息活动,而且在很多情况下,生成的文本很难从普通互联网用户中辨别出来。这些结果甚至可能是这种算法的低端,因为受控设置可能会产生略微不同的结果,而不是简单地浏览社交媒体和偶然发现一条虚假信息。

无论如何,GPT-3肯定能够完全编造故事,并说服大部分用户——而且它在说谎方面比讲真话要好得多。

作者写道:“我们的研究暗示了一个初步但令人担忧的结论:像GPT-3这样的系统似乎比信息更适合伪造信息——至少以最不微妙的形式——更擅长编造谎言,而不是严肃的实话。”

作者:Jack Dunhill,编辑及社会助理

Ack是一名编辑助理,热爱技术、遗传学和所有与生物有关的事物。杰克毕业于莱斯特大学,获得了医学遗传学的学位,他探索了IFLScience的一系列主题,并喜欢传播最新的科学新闻,无论它是什么。他于2015年加入团队,并一直在这里担任不同的角色。他周游了世界,看到了他能找到的最极端的地方,他喜欢远离尘嚣,找任何借口往山上跑。此外,他爱狗胜过大多数人。

标题:人工智能在几乎不需要人力投入的情况下就能很好地写出假新闻

地址:http://ai.rw2015.com/auto/9448.html

免责声明:人工智能网为网民提供实时、严谨、专业的财经、产业新闻和信息资讯,更新的内容来自于网络,不为其真实性负责,只为传播网络信息为目的,非商业用途,如有异议请及时联系站长,本网站将立即予以删除!。

返回顶部