要點:
一系列人工智能AI創建的“虛假科學”影片的背後,背後是為了提高點擊率而帶來的“利益化”目的。隨著人工智能AI工具的不斷改進,誤導性內容將變得更容易創建,而影片的品質將變得更難以識別。人工智能在教育領域的應用帶來了許多潛在風險,其中之一就是可能產生虛假科學內容,特別是針對兒童,並可能對兒童的教育和認知發展造成嚴重影響。
在“速食”成為主流的視聽傳播時代,社會每天都在產生大量信息。而應該探討的深度,卻永不止於話題或事件本身。我們一起,從社會發展中洞察有價值、有趣、有爭論點的生活方式及現象。
狂呼社會研究所聚焦社會變革下不同的聲音,向外延申社會背景、文化背景的思考深度,以多角度剖析、獨特的社會視角,引領大眾感知社會的“人間百態”。
狂呼,為每一個社會現象或事件的背后,提供具有探討價值的觀點,始於洞察、終於啟發。
聯系我們 // 相關文章
2023年,作為人工智能AI元年,AI工具急速普及。但與此同時,有專家發現,使用人工智能/AI製作包含“虛假科學”內容影片的YouTube頻道被推薦給兒童群體作為“教育內容”。目前,YouTube上有50多個頻道以20多種語言傳播偽裝成STEM/科學技術工程數學內容的虛假資訊。
其中包括大量的偽科學,它們將資訊呈現為不基於正確科學方法的科學事實,以及完全錯誤的資訊和陰謀論。陰謀論的例子包括發電金字塔的存在、否認人為造成的氣候變遷以及外星人的存在。
AI人工智能“虛假科學”影片
人工智能AI是一種使電腦能夠以更“人性”的方式思考或行動的技術。它透過從周圍環境中獲取訊息,並根據學到的或感知到的信息來決定回應來做到這一點。為了測試這些“虛假科學”影片是否會推薦給兒童群體,有專家在YouTube主網站上建立了兒童帳戶。
在其觀看正常、合法的科學教育影片四天后,他們發現也被推薦了人工智能AI製作的“虛假科學”影片。一旦他們開始點擊進入頻道,後續就會因為大數據算法的原因,被推薦更多相似的虛假科學頻道或內容。
作為實驗的一部分,專家隨後向兩組10至12歲的孩子(一組在英國,一組在泰國)分享了一些推薦的“虛假科學”內容,看看孩子們是否會相信他們所觀看的資訊。一段影片重點關注不明飛行物和外星人陰謀,但這些影片已被廣泛證明是不真實的。另一個影片錯誤地聲稱吉薩金字塔被用來發電。結果,孩子們卻對此深信不疑並表示,“我很喜歡看它!一開始我不確定外星人是否存在,但現在我認為他們確實存在。”另一個孩子也表示,“我現在才知道以前人們能夠利用現代技術發電。”當專家隨後向孩子們解釋這些影片是用人工智慧AI製作的虛假影片時,他們感到十分震驚。
他們表示,“如果你沒有告訴我們這是假的,我可能會相信。”
而這一系列“虛假科學”影片的背後,為了提高點擊率而帶來的“利益化”目的
凱爾希爾/Kyle Hill是一位YouTube和科學教育家,擁有大量年輕觀眾。幾個月前,他開始注意到這些“虛假科學”影片出現在他的動態中。他說,他的粉絲聯繫他詢問看似合法的推薦內容,但實際上充滿了大量的虛假資訊。
這些影片的重點是瘋狂的主張,用聳人聽聞的評論、吸引人的標題和戲劇性的圖像來吸引觀眾。觀看影片的人越多,頻道透過允許在螢幕上顯示廣告獲得的收入就越多。此外,“虛假科學”的創作者還將他們的影片標記為“教育內容”,這意味著它們更有可能被推薦給兒童。凱爾對此表示,“這些頻道似乎已經找到了以最少的努力最大化觀看次數的正確選擇。”
在當今的數字時代,網紅們為了追求點擊率和網絡曝光率,往往採取了各種手段來創造虛假內容。這種現象在YouTube等社交媒體平台上尤為突出。
為了吸引觀眾的眼球,他們可能故意製造戲劇性場景、夸大事實、或者加入不實資訊,以此來制造轟動效應。這種做法不僅令觀眾產生好奇心,也提高了他們的點擊率。此外,網紅可能利用圖片和影片的編輯技巧,進行虛假的特效和視覺效果,使得本來普通的事件看起來變得驚人刺激。這種技術手段可以誇大事件的真實性,能使用偽造證據或者虛構的故事情節,來增加影片的戲劇性,引起觀眾的共鳴、吸引更多的觀眾點擊。極端情況下,網紅甚至可能進行各種挑釁、爭議性言論或者製造矛盾,以引發觀眾情緒,引起討論,這樣的爭議性內容往往更容易引起關注和討論,增加了他們的曝光率。這種製造爭議、制造虛假情節的手法,儘管可能對觀眾的價值觀和認知產生負面影響,但卻能在短時間內獲得大量的點擊和關注。
如何辨別真假科學內容
目前,YouTube上有數十個頻道製作此類誤導性資料,語言包括阿拉伯語、西班牙語和泰語。其中許多頻道的訂閱者超過一百萬,而他們的影片經常獲得數百萬次觀看。
頻道創作者快速發佈內容,許多人每天甚至發布多個影片。為了能夠以如此快的速度做到這一點,不少專家懷疑內容創作者正在使用生成式人工智能AI程式。這些程序例如Chat GPT和MidJourney,可以根據要求創建新內容,而不是在網路上搜尋已經存在的真實例子。
為了檢驗這個理論,專家們從每個頻道拍攝了視頻,並使用人工智慧檢測工具和專家分析來評估視頻片段、旁白和腳本是使用人工智慧製作的機率或可能性。結果數據顯示,大多數影片都使用人工智慧來產生文字和圖像,以及從網站中提取資訊並操縱真實科學影片中的材料。一切的內容看起來都很“真實”,但事實上,大多數都不是真實的。
作為觀眾,我們應該如何避免被虛假科學資訊誤導?
知道假設與理論之間的區別 - 在科學中,假設是一種被提出的解釋,可以通過進一步的實驗和觀察得到驗證。這是一個有待證實的想法,需要收集更多的數據來證明或證偽它。提出假設通常被認為是科學方法的第一步。很多外行經常在這里使用“理論”這個詞,但科學家們并不是這么用的。
在科學中,理論是一種被廣泛接受的觀點,有一些嚴格數據的支撐。當科學家們提到“進化論”或“相對論”時,他們并不是在說這只是一個未經證實的瘋狂想法。這兩個理論都得到了大量數據、觀察和實驗的支持。當然,現有的科學理論以后可能會被修改或被證偽,如果有足夠的數據可以證明這一點的話。但是,理論一開始被廣泛接受是因為它們得到了大量證據的支持。
注意選擇偏差 - 假如一個心理學家可以對世界上的每個人進行一次單獨的測試,那將會得出一些很有說服力的結論。但這是不切實際的。因此,科學家們退而求其次,他們回選擇一個較小的群體進行研究。然而,他們總是必須對他們抽選的特定群體保持謹慎。研究可能會受到選擇偏差的影響,即對研究對象的選擇沒有達到隨機的標准,因此研究結果在某種程度上會具有偏向性。
選擇偏差可以通過多種方式發生。也許某些類型的人更有可能想要參與研究,或者有足夠的決心不放棄一個持續時間更長的實驗研究。舉例來說,在一項為期一年的減肥藥物研究,其中一半的參與者在研究結束前就退出了。那些繼續留在研究中的參與者可能都減肥了,但是考慮那些退出研究的人也很重要。也許那些人在研究過程中沒有看到任何進展。所以,報告中100%的成功率實際上很有可能是50%。
不要混淆相關性和因果關系 - 通常,科學家們會發現兩個不同的變量是相互關聯的。例如,隨着時間的推移,它們都在一起增加。這表明它們可能是相關的,但這并不一定意味着其中一個變量是導致另一個變量發生變化的原因,也許這只是巧合。或許是第三個變量導致了這兩個變量發生變化。通常需要進一步的測試才能揭示兩者的明確關系。
隨着時間的推移,科學家們會掌握大量相關的證據,同時系統地排除其他可能的原因,這就可能會讓科學家們得到更有說服力的結論,即某些變量是其他變量的原因。但是,證明因果關系的最好方法是實施一個精密控制的實驗。
理解“顯著性” - 在日常語言中,“顯著”的意思是某事是突出的或顯眼的。但是一項被認為具有“統計顯著性”的科學發現不一定符合上述兩種情況中的任何一種。科學家們通常認為,如果一種叫作“p值”的特殊統計工具可以檢測到這種顯著效應,那么這個研究結果就具有統計學意義。
取多大的p值是任意的,在不同的科學領域也會有所不同。通常被認為具有“統計顯著性”的臨界值是0.05的p值。p值并不是研究中唯一的關鍵數字,記住這一點尤為重要。例如,治療某種疾病的方法在統計學上有顯著的效果,可以將存活率從43%提高到44%。這是一個微小的改變,可能對未來如何治療這種疾病并沒有多大意義。
因此,針對一系列的“虛假科學”內容魚龍混雜,專家推薦13歲以下兒童使用YouTube Kids,該網站對可播放影片的品質有更高的標準。
兒童教學面臨的風險
隨著人工智能AI工具的不斷改進,誤導性內容將變得更容易創建,而影片的品質將變得更難以識別。人工智能在教育領域的應用帶來了許多潛在風險,其中之一就是可能產生虛假科學內容,特別是針對兒童。當AI系統生成的教材包含虛假或未經證實的科學資訊時,這可能對兒童的教育和認知發展造成嚴重影響。
兒童的心智和世界觀正在發展階段,容易受到“虛假科學”的影響。如果他們被虛假的科學知識所誤導,可能會形成錯誤的認知基礎,影響日後的學習和思考方式。這種錯誤的知識可能會在他們的思想中根深蒂固,難以納入正確的科學觀念。兒童通常較難識別虛假信息,尤其是在網絡時代,海量的信息中夾雜著許多不實內容,容易使兒童誤入歧途。AI生成的虛假科學內容可能通過視覺和聲音效果使其看似可信,這增加了兒童相信這些虛假內容的可能性。
此外,如果虛假的科學內容被納入教育教材,可能會對學校課程和教學質量產生負面影響。教育應該是基於真實科學知識的,如果這些知識被虛假信息所取代,將影響兒童的學習成果和對知識的信任度。
AI生成的虛假科學內容對兒童教學帶來的風險在於可能扭曲他們的認知,阻礙正確科學觀念的形成,並可能影響整個教育體系的質量。因此作為相關部門機構或家長,我們需要在教育中謹慎應用人工智能技術,確保所提供的知識是準確和可信的,以保障兒童的學習和發展。
觀點1
為什麼孩子更容易相信假消息?有老師表示,“這些影片效果很好,因為它們具有陰謀性,它們揭露了大多數人不知道的秘密。作為兒童,他們都對與官方告訴我們的相反的事情著迷,越是離奇就越感興趣。相比之下,兒童比成年人更容易受到這種影響。”孩子們往往首先會將他們所看到的東西視為事實。也許只有當他們長大一點時,他們才會開始質疑它,並尋找一系列的支撐信息。
孩子更容易相信虛假的科學消息主要是因為他們的認知和判斷能力尚未完全成熟,容易受到外部信息的影響。孩子的知識基礎相對較薄弱,缺乏對事實和虛假之間的明確區分能力。他們在認識世界的過程中,依賴於身邊成年人的引導和教育,因此更容易相信來自權威或者看似可信的來源的信息。
此外,孩子的世界觀正在形成階段,他們對於新事物和知識充滿好奇心。這種好奇心可能使他們更願意相信看似新奇和驚人的科學消息,而不太會懷疑其真實性。此外,孩子的思維通常較為直觀,難以進行深入的邏輯分析,這使他們難以辨別虛假信息中的瑕疵和不合理之處。
現代科技使得虛假信息更容易迅速傳播,而孩子往往是網路和社交媒體的使用者。他們容易受到來自網絡、社交媒體、遊戲等多種來源的影響,這些平台上可能充斥著未經證實的虛假科學消息,進一步加大了他們受騙的風險。孩子更容易相信虛假的科學消息是因為他們的認知還不夠成熟,對於真實和虛假的辨別能力相對較弱,且受到來自各方面的多重影響。因此,教育應該重視提升孩子的媒體素養和批判性思維,幫助他們更好地識別和應對虛假科學消息。
觀點2
針對“虛假科學”內容,社會也開始思考在人工智能AI的發展趨勢下,我們應該如何正確培養下一代?
我們稱今天的兒童為“人工智能一代”,人工智能模型所作出的決定界定了他們在網上觀看的視頻、他們在學校的課程、他們的家庭獲得的社會援助。這一現實既帶來了巨大的機會,也可能生發嚴重的風險。如果沒有對兒童的特別關注,這項技朮的發展有可能在不考慮兒童的具體需求和權利的情況下進行,而兒童的健康發展對任何社會的未來福祉都是至關重要的。
人工智能可能加劇不平等,并維持偏見。例如,釆用機器學習和人工智能技朮對學生申請進行分類的學校,可能會無意地但卻是系統地排除某些類型的候選人。此外,人工智能設備越來越能操縱用戶并使其上癮,而兒童尤其容易受到影響。對人工智能技朮的過度依賴會讓孩子在社交和情感上變得殘缺。數據隱私泄露也是一個令人擔憂的問題,當社交媒體通過數據釆集和推送定向內容與兒童對接時,當智能玩具能夠聽到孩子說話時,可能同時也在侵犯著孩子的隱私。
今天的孩子遇到自己不知道的東西,他們不會問爸爸媽媽,而會問搜索引擎。這非常有趣,因為孩子有這樣的概念,他/她認為搜索引擎什么都知道。而我們必須向孩子解釋,搜索引擎并不是什么都知道。而且還有一些事情,你可能并不想讓搜索引擎知道。
因此,正確使用人工智能AI技術至關重要,特別是在培養下一代的過程中。首先,教育機構和家庭應該著重於將AI技術納入教育課程,培養孩子們的數字素養和批判性思維,使其能夠理解、評估和應用人工智能。同時,需要訓練孩子們的道德和倫理觀念,使他們明白AI的使用應該符合道德標準,並且尊重隱私和多樣性。