沃卡惠移动端logo

沃卡惠  行业资讯

资讯详情

人工智能可以对抗新闻中的错误信息和偏见

2022-10-06 14:31:324636

<a href=https://www.wokahui.cn/ai/ target=_blank class=infotextkey>人工智能</a>可以对抗新闻中的错误信息和偏见

新闻中的错误信息和偏见已成为近年来社会面临的最大挑战之一。诸如信息操作、深度伪造、金融影响和利用社会紧张局势之类的东西是全球个人和国家行为者都在使用的新工具。

错误信息是虚假信息的总称,在舆论操纵中发挥着重要作用。同时,它被用作对政治领导人的攻击,并加剧了各国团体之间的分离。比以往任何时候都更严重的是,错误信息正在席卷投票站,并且变得非常有效。

与错误信息略有不同的虚假信息是故意误导或有偏见的信息。它可以包括被操纵的叙述和事实。换句话说,就是宣传。

牛津大学研究人员 2019 年的一份报告详细介绍了在 70 个不同国家(包括俄罗斯、中国、越南和危地马拉)进行的有组织的虚假宣传活动。

数字经济导致新闻中的错误信息和偏见增加,人工智能技术和社交媒体平台成为将其推向大众的方式。

我们已经看到了很多这样的例子。例如,前两次美国总统选举充满了错误信息和偏见,而且这种情况在未来肯定会继续存在。金融市场也因错误信息和偏见而受到短期操纵,外交事务也因使用它们而变得更加紧张。针对特定原因的支持者和反对者的虚假信息引发了社会紧张局势,假新闻几乎在每个国家都猖獗。

我们对社交媒体和算法的依赖使我们非常容易受到错误信息和偏见的影响,而且操纵一大群人变得很容易。

根据非营利媒体网络 The Conversation 发表的题为“偏见使人们容易受到社交媒体传播的错误信息的影响”的文章,有三种类型的偏见使社交媒体生态系统容易受到故意和意外的错误信息。重要的是要认识到我们现在的大部分新闻都来自社交媒体。

三种类型的偏见是:

  1. 大脑中的偏见:“认知偏见源于大脑处理每个人每天遇到的信息的方式。”
  2. 社会偏见:“当人们直接与同龄人联系时,指导他们选择朋友的社会偏见会影响他们看到的信息。
  3. 机器中的偏见:“第三组偏见直接来自用于确定人们在网上看到什么的算法。社交媒体平台和搜索引擎都使用它们。”

这种偏见的结合为不良行为者利用我们当前的新闻平台传播错误信息创造了完美的环境。但重要的是要认识到偏见也存在于这个领域之外。由于作者或出版物自身的特定倾向,定期的新闻报道和文章可能会存在偏见。这不是什么新鲜事。

错误信息和偏见的人工智能解决方案

人工智能的兴起为我们提供了许多新的和创新的工具,可以用来对抗新闻中的错误信息和偏见。

例如,如果设计得当,人工智能可以有效地检测和删除某些错误信息和其他有问题的在线内容。它已经被谷歌、Twitter 和 Facebook 等公司用来识别假冒机器人。假机器人经常被用来传播错误信息和有偏见的新闻。

必须探索新的人工智能框架来解决这个问题,并且必须改进现有的框架,因为许多框架已被证明是有问题的。当冲突出现时,这些问题开始变得更加危险。例如,军事冲突,例如当前的俄罗斯-乌克兰冲突,导致错误信息的传播速度非常快。

有各种人工智能驱动的工具即将推出。例如,国际技术开发商NT CONNECT最近宣布推出其新闻聚合应用程序NOOZ.AI。人工智能驱动的语言分析引擎旨在为当今新闻媒体中存在的两极分化带来透明度。它试图通过让读者在阅读文章之前了解新闻媒体的影响来实现这一目标。

“作者或记者往往倾向于一种特定的偏见——通常是在读者不知情的情况下,”该公司的新闻稿说。“通过了解作者和新闻来源的历史偏见,消费者可以以更客观的心态审视文章,并抵制被操纵以某种方式思考任何特定主题。”

NOOZ.AI 工具建立在四个关键支柱之上:

  • 意见分析:它帮助读者确定记者写作中个人感受、观点、信仰或判断的存在。
  • 情绪分析:该工具使用情绪分析来帮助读者衡量作者对一般新闻内容或特定主题的支持或反对。
  • 宣传分析:它可以通过识别多达 18 种可能的说服技术的使用来检测潜在的虚假信息。
  • 修订分析:读者可以调查新闻故事的演变及其对舆论和情绪的操纵。

该应用程序为每篇文章提供评分,意见评分范围从 0 到 100,情绪评分范围从 -100 到 100。它还跟踪每个修订的所有文本编辑,并让读者能够比较不同的版本。

NT CONNECT 首席技术官 Garry Paxinos 表示:

“有偏见的报道是当今社会的一个主要问题。错误信息是最常用(错误)使用的流行语。但现实情况是,语言本身可以用来操纵和说服随便的读者。通过客观地分析语言,我们避免了在其他方法中发现的主观偏见。与主观地标记错误信息相反,我们的方法是阐明如何通过夸大的标题、修订历史和文章文本来操纵一个人。”