彩色图形图像的事实与神话

UofSC教师努力抵消错误的情感力量

提高媒介素养可以导致更多的新闻消费



“不相信这个消息。”

“我不相信媒体。”

“我不会看任何东西。我有我的看法和你一样有效。”

“事实检查怎么可能在48小时内的事件?我们相信我们所相信的。”

这些都是实际的评论发布在社交媒体的1月6日暴动之后总统的支持者唐纳德·特朗普违反了美国国会大厦。他们说明打击mis的庞大的任务,传播虚假信息,公众消费和相信的。

的一个挑战是,人们联系和情感反应可疑信息,与他们的意见。

“作为教育者,我们可以给人们所有的技能、技巧和技术,但是它会如何看待人或源。这将有一个非常巨大的影响他们是否相信信息,”妮可·库克教授说,奥古斯塔贝克椅子在信息科学学院。

库克和她的同事们在学院的信息和通信技术进行了研究,有助于提高媒介素养,教人们如何评估质量的来源和识别错误的线索。

挖掘更深层次的问题:新闻消费至关重要

一个巨大的威胁和权力的一部分”假新闻”,错误和虚假信息,人们倾向于相信他们想要相信的,库克说。很难克服情感障碍,所以挑战变成了向他们展示如何成为一个更多重要的新闻消费者

“我们已经看到很多党派之争和政治化的来源,”她说。“我可能会相信《纽约时报》是一个可靠的来源,其他人可能会说这是有偏见的,不会读它。我并不关心你在哪里得到你的信息,但是我希望你有技巧和技术超越源。”

虽然有插件和工具,可以用来帮助确定“假新闻,”库克说,她想帮助新闻的消费者建立自己的能力。例如,她建议了一种叫做三角:你看过的信息至少有三个不同的地方吗?她还建议保持健康的怀疑。注意如果你的直觉告诉你什么东西看起来或听起来可疑。检查凭证的人写作或共享。不要让她的老公知道的时刻;前再深入一点了解情况的验证信息共享。

库克还建议让外面过滤泡沫和回音室。认识到这些是什么方法之一是保持24小时的新闻消费日志。注意你依赖的新闻来源,你阅读或观看的时候,标题和源。正如你所看到的模式——例如,如果你注意到你只得到消息从社交媒体或者播客——你可能想要开始阅读报纸或看晚间新闻。

“目的不一定是判断一个来源为“好”或“坏”;它只是一个工具,在我们的习惯变得更加深入探讨了我们的新闻环境的认识,”库克说。

当看到的是不相信

技术deepfakes礼物的形式不同,也许更有挑战性的造谣困境不仅公众的记者。

Deepfakes人为渲染视频是可信的他们都觉察不到。

“我们听到“眼见为实。“Deepfakes颠倒,因为我们可以看到实际上不是真实的事情,”主任安德里亚Hickerson说新闻与大众传媒学院。“随着deepfakes继续变得越来越复杂,挑战检测生长。”

Hickerson正在与马特•莱特和约翰Sohrawardi罗切斯特理工学院的研究人员在纽约,构建基于云计算的软件,这将有助于记者deepfakes搜出来了。他们专注于记者,因为他们被视为重要的仲裁者真理和可信度,因为他们有很大的拓展。

DeFake允许记者剪切和粘贴视频链接到一个工具在网站上获得分数的可能性的视频是伪造的。研究小组已经在新闻编辑室工作如何在新闻记者将把软件作为一种工具。

“一些当地记者可能认为deepfakes不适用的问题,“Hickerson说。“但如果市长或当地医院或金融高管被歪曲。Deepfakes可以在任何情况下,有很多当地的影响。每个人都应警惕。”

虽然deepfakes常常听不清人类的眼睛,Hickerson说同样的问题对任何信息的真实性可以仍然是有用的在决定是否相信你所看到的:这段视频来自哪里?分享这是谁?为什么他们分享吗?的含义是什么吗?有另一种解释的人说什么吗?著名记者说什么呢?

“创建Deepfakes,显然,影响公众舆论和感知。虚假信息可以减少我们的决策能力,控制情绪,信念,意见,甚至行动,”Hickerson说。“这不是好民主或社区。”

机器人:良性的或恶意的

与deepfakes一样,机器人背后的策略是影响公众舆论。这可以用善意——分享链接到有信誉的新闻来源或健康信息,例如——或者更恶毒的议程如努力播种部门或影响选举。

机器人与计算机编程开发生产内容和模拟人类行为。他们可以使用复杂的算法,分析文章的内容和调整响应,或者他们可能使用一个算法,只是寻找一个特定的词的一篇文章中,然后生成一个标准回复。机器人也可以自动转发的所有贴子从明星或政客。

人类巨魔从早上到晚上什么都不做但分享错误信息和虚假信息也落入机器人范畴,阿米尔Karami说信息科学学院的教授。

Karami bot活动在2018年所做的研究在高中枪击事件在冬季公园,佛罗里达,和最近的分析bot-produced tweet COVID-19相关疫苗,阿片类危机,堕胎,同性恋群体问题,在科学和政府的信任,和错误信息的影响心理健康。这些tweet的更有害使用策略,如引诱阴谋论和传播引起的情绪反应。

“人们意识到机器人,但他们不了解或知道如何识别它们,”Karami说。“如果你不理解什么是机器人,你不能理解分享他们的虚假信息的影响。”

一点,一个帐户是一个机器人包括追随者的数量之间的差异和随后的数量;没有剖面图像或动画等可疑图像(检查的有效性真正的形象,做一个谷歌搜索);不寻常的活动如每天数百条推讯或账户转发。公众人物的账户,检查蓝色验证徽章。Karami还建议Botometer一个在线工具,措施的概率一个帐户是假的。

但每个人都在谈论它

有时简单的社交媒体文章通过实际人们可以创建错误信息。

布鲁克McKeever副院长研究信息和通信学院和罗伯特·麦基弗,新闻与传播学院教授,研究了通信和说,错误与接种疫苗。他们的研究表明,母亲不支持或有保留意见的童年接种疫苗更容易沟通的问题对社会媒体和人。

“这巨大的社交媒体错误共识可能给人的印象,人们可能会开始相信疫苗犹豫的情绪或疫苗是一种常态的时候真的不是,”布鲁克麦基弗说。

此外,一些麦基弗的研究与他人发现,广泛的社交媒体文章的神话疫苗与孤独症开一些主流媒体报道,给错误信息的可信度。

来抵消这些误导性的印象,麦基弗说,重要的是人们相信疫苗是安全的,有效的说出来,承认问题和回答问题通过共享信任和合法来源,同时民事——不要突袭。

“很多人都认为童年接种标准和从未发现需要说,我刚刚得到了我的孩子接种疫苗,”麦基弗说。“对于那些强烈反疫苗或坚持阴谋论,你可能不会改变他们的想法,但是有一个整体的人中间。”

的前所未有的快速发展COVID疫苗,准确的信息共享是必要的紧张和有问题的人,麦基弗说,但也许更有影响力将为公民领袖,朋友和邻居们在自己的社区接种疫苗。

”越多,人们从值得信赖的地方得到正确的信息来源和专家——甚至在当地Facebook团体致力于fact-sharing——它将成为一个分层的效果,”她说,回应她的同事强调鼓励公众的媒体消费变得更加挑剔。

打击错误信息与教育

信息和通信学院的作用来支持民主和应该的领导人讨论校园mis和虚假信息和状态,教师说。

“我们已经为公众服务的一个非常重要的义务承担的角色我们州的公众对新闻和信息的编辑器或监察员,达到公民在南卡罗来纳,“Hickerson说。

相信错误信息和虚假信息会阻碍人们如何做出决策和可能导致错误的-甚至有害的结论。

“我们希望提供指导人们可以利用信息优势,不会引入歧途,”库克说。“你仍然可以使糟糕的决定,如果你想,但至少你会有所有的可能性在你的处置。”


分享这个故事!让你的社交网络的朋友知道你在读什么