要点:
一系列人工智能AI创建的“虚假科学”影片的背后,背后是为了提高点击率而带来的“利益化”目的。随着人工智能AI工具的不断改进,误导性内容将变得更容易创建,而影片的品质将变得更难以识别。人工智能在教育领域的应用带来了许多潜在风险,其中之一就是可能产生虚假科学内容,特别是针对儿童,并可能对儿童的教育和认知发展造成严重影响。
在“速食”成为主流的视听传播时代,社会每天都在产生大量信息。而应该探讨的深度,却永不止于话题或事件本身。我们一起,从社会发展中洞察有价值、有趣、有争论点的生活方式及现象。
狂呼社会研究所聚焦社会变革下不同的声音,向外延申社会背景、文化背景的思考深度,以多角度剖析、独特的社会视角,引领大众感知社会的“人间百态”。
狂呼,为每一个社会现象或事件的背后,提供具有探讨价值的观点,始于洞察、终于启发。
联系我们// 相关文章
2023年,作为人工智能AI元年,AI工具急速普及。但与此同时,有专家发现,使用人工智能/AI制作包含“虚假科学”内容影片的YouTube频道被推荐给儿童群体作为“教育内容”。目前,YouTube上有50多个频道以20多种语言传播伪装成STEM/科学技术工程数学内容的虚假资讯。
其中包括大量的伪科学,它们将资讯呈现为不基于正确科学方法的科学事实,以及完全错误的资讯和阴谋论。阴谋论的例子包括发电金字塔的存在、否认人为造成的气候变迁以及外星人的存在。
AI人工智能“虚假科学”影片
人工智能AI是一种使电脑能够以更“人性”的方式思考或行动的技术。它透过从周围环境中获取讯息,并根据学到的或感知到的信息来决定回应来做到这一点。为了测试这些“虚假科学”影片是否会推荐给儿童群体,有专家在YouTube主网站上建立了儿童帐户。
在其观看正常、合法的科学教育影片四天后,他们发现也被推荐了人工智能AI制作的“虚假科学”影片。一旦他们开始点击进入频道,后续就会因为大数据算法的原因,被推荐更多相似的虚假科学频道或内容。
作为实验的一部分,专家随后向两组10至12岁的孩子(一组在英国,一组在泰国)分享了一些推荐的“虚假科学”内容,看看孩子们是否会相信他们所观看的资讯。一段影片重点关注不明飞行物和外星人阴谋,但这些影片已被广泛证明是不真实的。另一个影片错误地声称吉萨金字塔被用来发电。结果,孩子们却对此深信不疑并表示,“我很喜欢看它!一开始我不确定外星人是否存在,但现在我认为他们确实存在。”另一个孩子也表示,“我现在才知道以前人们能够利用现代技术发电。”当专家随后向孩子们解释这些影片是用人工智慧AI制作的虚假影片时,他们感到十分震惊。
他们表示,“如果你没有告诉我们这是假的,我可能会相信。”
而这一系列“虚假科学”影片的背后,为了提高点击率而带来的“利益化”目的
凯尔希尔/Kyle Hill是一位YouTube和科学教育家,拥有大量年轻观众。几个月前,他开始注意到这些“虚假科学”影片出现在他的动态中。他说,他的粉丝联系他询问看似合法的推荐内容,但实际上充满了大量的虚假资讯。
这些影片的重点是疯狂的主张,用耸人听闻的评论、吸引人的标题和戏剧性的图像来吸引观众。观看影片的人越多,频道透过允许在萤幕上显示广告获得的收入就越多。此外,“虚假科学”的创作者还将他们的影片标记为“教育内容”,这意味着它们更有可能被推荐给儿童。凯尔对此表示,“这些频道似乎已经找到了以最少的努力最大化观看次数的正确选择。”
在当今的数字时代,网红们为了追求点击率和网络曝光率,往往采取了各种手段来创造虚假内容。这种现象在YouTube等社交媒体平台上尤为突出。
为了吸引观众的眼球,他们可能故意制造戏剧性场景、夸大事实、或者加入不实资讯,以此来制造轰动效应。这种做法不仅令观众产生好奇心,也提高了他们的点击率。此外,网红可能利用图片和影片的编辑技巧,进行虚假的特效和视觉效果,使得本来普通的事件看起来变得惊人刺激。这种技术手段可以夸大事件的真实性,能使用伪造证据或者虚构的故事情节,来增加影片的戏剧性,引起观众的共鸣、吸引更多的观众点击。极端情况下,网红甚至可能进行各种挑衅、争议性言论或者制造矛盾,以引发观众情绪,引起讨论,这样的争议性内容往往更容易引起关注和讨论,增加了他们的曝光率。这种制造争议、制造虚假情节的手法,尽管可能对观众的价值观和认知产生负面影响,但却能在短时间内获得大量的点击和关注。
如何辨别真假科学内容
目前,YouTube上有数十个频道制作此类误导性资料,语言包括阿拉伯语、西班牙语和泰语。其中许多频道的订阅者超过一百万,而他们的影片经常获得数百万次观看。
频道创作者快速发布内容,许多人每天甚至发布多个影片。为了能够以如此快的速度做到这一点,不少专家怀疑内容创作者正在使用生成式人工智能AI程式。这些程序例如Chat GPT和MidJourney,可以根据要求创建新内容,而不是在网路上搜寻已经存在的真实例子。
为了检验这个理论,专家们从每个频道拍摄了视频,并使用人工智慧检测工具和专家分析来评估视频片段、旁白和脚本是使用人工智慧制作的机率或可能性。结果数据显示,大多数影片都使用人工智慧来产生文字和图像,以及从网站中提取资讯并操纵真实科学影片中的材料。一切的内容看起来都很“真实”,但事实上,大多数都不是真实的。
作为观众,我们应该如何避免被虚假科学资讯误导?
知道假设与理论之间的区别- 在科学中,假设是一种被提出的解释,可以通过进一步的实验和观察得到验证。这是一个有待证实的想法,需要收集更多的数据来证明或证伪它。提出假设通常被认为是科学方法的第一步。很多外行经常在这里使用“理论”这个词,但科学家们并不是这么用的。
在科学中,理论是一种被广泛接受的观点,有一些严格数据的支撑。当科学家们提到“进化论”或“相对论”时,他们并不是在说这只是一个未经证实的疯狂想法。这两个理论都得到了大量数据、观察和实验的支持。当然,现有的科学理论以后可能会被修改或被证伪,如果有足够的数据可以证明这一点的话。但是,理论一开始被广泛接受是因为它们得到了大量证据的支持。
注意选择偏差- 假如一个心理学家可以对世界上的每个人进行一次单独的测试,那将会得出一些很有说服力的结论。但这是不切实际的。因此,科学家们退而求其次,他们回选择一个较小的群体进行研究。然而,他们总是必须对他们抽选的特定群体保持谨慎。研究可能会受到选择偏差的影响,即对研究对象的选择没有达到随机的标准,因此研究结果在某种程度上会具有偏向性。
选择偏差可以通过多种方式发生。也许某些类型的人更有可能想要参与研究,或者有足够的决心不放弃一个持续时间更长的实验研究。举例来说,在一项为期一年的减肥药物研究,其中一半的参与者在研究结束前就退出了。那些继续留在研究中的参与者可能都减肥了,但是考虑那些退出研究的人也很重要。也许那些人在研究过程中没有看到任何进展。所以,报告中100%的成功率实际上很有可能是50%。
不要混淆相关性和因果关系- 通常,科学家们会发现两个不同的变量是相互关联的。例如,随着时间的推移,它们都在一起增加。这表明它们可能是相关的,但这并不一定意味着其中一个变量是导致另一个变量发生变化的原因,也许这只是巧合。或许是第三个变量导致了这两个变量发生变化。通常需要进一步的测试才能揭示两者的明确关系。
随着时间的推移,科学家们会掌握大量相关的证据,同时系统地排除其他可能的原因,这就可能会让科学家们得到更有说服力的结论,即某些变量是其他变量的原因。但是,证明因果关系的最好方法是实施一个精密控制的实验。
理解“显著性” - 在日常语言中,“显著”的意思是某事是突出的或显眼的。但是一项被认为具有“统计显著性”的科学发现不一定符合上述两种情况中的任何一种。科学家们通常认为,如果一种叫作“p值”的特殊统计工具可以检测到这种显著效应,那么这个研究结果就具有统计学意义。
取多大的p值是任意的,在不同的科学领域也会有所不同。通常被认为具有“统计显著性”的临界值是0.05的p值。 p值并不是研究中唯一的关键数字,记住这一点尤为重要。例如,治疗某种疾病的方法在统计学上有显著的效果,可以将存活率从43%提高到44%。这是一个微小的改变,可能对未来如何治疗这种疾病并没有多大意义。
因此,针对一系列的“虚假科学”内容鱼龙混杂,专家推荐13岁以下儿童使用YouTube Kids,该网站对可播放影片的品质有更高的标准。
儿童教学面临的风险
随着人工智能AI工具的不断改进,误导性内容将变得更容易创建,而影片的品质将变得更难以识别。人工智能在教育领域的应用带来了许多潜在风险,其中之一就是可能产生虚假科学内容,特别是针对儿童。当AI系统生成的教材包含虚假或未经证实的科学资讯时,这可能对儿童的教育和认知发展造成严重影响。
儿童的心智和世界观正在发展阶段,容易受到“虚假科学”的影响。如果他们被虚假的科学知识所误导,可能会形成错误的认知基础,影响日后的学习和思考方式。这种错误的知识可能会在他们的思想中根深蒂固,难以纳入正确的科学观念。儿童通常较难识别虚假信息,尤其是在网络时代,海量的信息中夹杂着许多不实内容,容易使儿童误入歧途。 AI生成的虚假科学内容可能通过视觉和声音效果使其看似可信,这增加了儿童相信这些虚假内容的可能性。
此外,如果虚假的科学内容被纳入教育教材,可能会对学校课程和教学质量产生负面影响。教育应该是基于真实科学知识的,如果这些知识被虚假信息所取代,将影响儿童的学习成果和对知识的信任度。
AI生成的虚假科学内容对儿童教学带来的风险在于可能扭曲他们的认知,阻碍正确科学观念的形成,并可能影响整个教育体系的质量。因此作为相关部门机构或家长,我们需要在教育中谨慎应用人工智能技术,确保所提供的知识是准确和可信的,以保障儿童的学习和发展。
观点1
为什么孩子更容易相信假消息?有老师表示,“这些影片效果很好,因为它们具有阴谋性,它们揭露了大多数人不知道的秘密。作为儿童,他们都对与官方告诉我们的相反的事情着迷,越是离奇就越感兴趣。相比之下,儿童比成年人更容易受到这种影响。”孩子们往往首先会将他们所看到的东西视为事实。也许只有当他们长大一点时,他们才会开始质疑它,并寻找一系列的支撑信息。
孩子更容易相信虚假的科学消息主要是因为他们的认知和判断能力尚未完全成熟,容易受到外部信息的影响。孩子的知识基础相对较薄弱,缺乏对事实和虚假之间的明确区分能力。他们在认识世界的过程中,依赖于身边成年人的引导和教育,因此更容易相信来自权威或者看似可信的来源的信息。
此外,孩子的世界观正在形成阶段,他们对于新事物和知识充满好奇心。这种好奇心可能使他们更愿意相信看似新奇和惊人的科学消息,而不太会怀疑其真实性。此外,孩子的思维通常较为直观,难以进行深入的逻辑分析,这使他们难以辨别虚假信息中的瑕疵和不合理之处。
现代科技使得虚假信息更容易迅速传播,而孩子往往是网路和社交媒体的使用者。他们容易受到来自网络、社交媒体、游戏等多种来源的影响,这些平台上可能充斥着未经证实的虚假科学消息,进一步加大了他们受骗的风险。孩子更容易相信虚假的科学消息是因为他们的认知还不够成熟,对于真实和虚假的辨别能力相对较弱,且受到来自各方面的多重影响。因此,教育应该重视提升孩子的媒体素养和批判性思维,帮助他们更好地识别和应对虚假科学消息。
观点2
针对“虚假科学”内容,社会也开始思考在人工智能AI的发展趋势下,我们应该如何正确培养下一代?
我们称今天的儿童为“人工智能一代”,人工智能模型所作出的决定界定了他们在网上观看的视频、他们在学校的课程、他们的家庭获得的社会援助。这一现实既带来了巨大的机会,也可能生发严重的风险。如果没有对儿童的特别关注,这项技术的发展有可能在不考虑儿童的具体需求和权利的情况下进行,而儿童的健康发展对任何社会的未来福祉都是至关重要的。
人工智能可能加剧不平等,并维持偏见。例如,釆用机器学习和人工智能技术对学生申请进行分类的学校,可能会无意地但却是系统地排除某些类型的候选人。此外,人工智能设备越来越能操纵用户并使其上瘾,而儿童尤其容易受到影响。对人工智能技术的过度依赖会让孩子在社交和情感上变得残缺。数据隐私泄露也是一个令人担忧的问题,当社交媒体通过数据釆集和推送定向内容与儿童对接时,当智能玩具能够听到孩子说话时,可能同时也在侵犯著孩子的隐私。
今天的孩子遇到自己不知道的东西,他们不会问爸爸妈妈,而会问搜索引擎。这非常有趣,因为孩子有这样的概念,他/她认为搜索引擎什么都知道。而我们必须向孩子解释,搜索引擎并不是什么都知道。而且还有一些事情,你可能并不想让搜索引擎知道。
因此,正确使用人工智能AI技术至关重要,特别是在培养下一代的过程中。首先,教育机构和家庭应该着重于将AI技术纳入教育课程,培养孩子们的数字素养和批判性思维,使其能够理解、评估和应用人工智能。同时,需要训练孩子们的道德和伦理观念,使他们明白AI的使用应该符合道德标准,并且尊重隐私和多样性。