智能新聞

智能新聞? 齊來迎接夢幻的家庭之旅! 荃灣「夢想樂園」誠意呈獻全新的「彩虹探險之旅」嘉年華,將於2025年12月13日隆重舉行!現場設有彩虹隧道及雲朵迷宮等多個精彩互動遊戲區及攤位遊戲,讓小朋友在繽紛的樂園盡情探索。小朋友可參加挑戰樂園的限時任務,完成後獲贈「探險徵章」及限量糖果禮包。快來與家人開啟一場充滿色彩與歡樂的彩虹之旅吧! 智能新聞? 你準備好到參與這個精彩的「彩虹之旅」嗎?停一停!「夢想樂園」是新開幕的主題樂園嗎?不是!以上的段落為人工智能的「創作」,並不是真實的宣傳。只要向人工智能輸入具體的條件,人工智能便能生成文章和圖像,甚至為你構思新聞內容。這些由人工智能所創作的「新聞」不僅圖文並茂,敘事及情感表達的方式也像人類的創作,讓不少人信以為真。 虛假新聞及訊息 除了假的文字和圖片,虛假的短片更令人心寒。人工智能軟件Deepfake被廣泛用作製作虛假訊息的工具,透過搜集目標人物的圖像便能生成虛構但逼真的影片,甚至模仿其聲線。這種仿真效果令人難以分辨真假,不但誤導公眾,而且對當事人的聲譽造成威脅。假新聞的出現損害媒體的公信力,影響正常的信息交流,而長期接觸虛假訊息令人減少對事物的信任,容易產生焦慮。 分辨真假 在資訊泛濫的時代,我們需訓練判斷辨別真偽的能力。當看到令人懷疑的新聞時,先要保持冷靜,仔細閱讀文章內容、查證新聞來源及對比其他平台的報章,以確保資料可信。同樣,當收到陌生來電或短信,需謹慎處理,切勿點擊不明連結或披露個人資料。即便收到由親友傳來但有可疑的訊息,也應保持冷靜,先聯絡相關的人確認真假,後作出相應的行動,提防被騙。 想一想: 為甚麼有些假新聞能讓人相信,讓人相信的新聞有甚麼特點? 隨著人工智能的發展,有機會增加辨別假新聞的難度,你認為有甚麼方法可以提升大家的判斷力? 延伸閱讀: https://businessfocus.io/article/335949/%E4%B8%80%E5%A0%B4%E5%BE%9E%E6%B2%92%E7%99%BC%E7%94%9F%E7%9A%84%E7%81%BD%E9%9B%A3-ai%E5%81%87%E6%96%B0%E8%81%9E%E9%A8%99%E5%80%92%E5%85%A8%E5%9C%8B https://www.adcc.gov.hk/zh-hk/anti-scam-publicity-material.html  https://www.youtube.com/watch?v=J56oMYQ2Heg 其他文章 人工智能心理 人工智能發展的光與影 AI Vtuber 人工智能虛擬偶像

人工智能的善惡

人工智能的善惡 人工智能的發展 人工智能由人類日常的得力助手發展成令人類擔心的工具,到底發生了甚麼事?設計人工智能的最初目的是為了讓電腦模仿人類進行思考,從而擁有學習和解決問題的能力。科學家「教導」人工智能邏輯推斷和演算法,找出最佳答案,因此出現早期人類與人工智能下棋的畫面。其後,人工智能技能愈加成熟,出現語音及圖像識別功能。人工智能現擅於「深度學習」,以多層神經網絡分析大數據,並進行預測,甚至自行創作和學習。正因為人工智能擁有「自行」判斷和回答的能力,人類開始擔心人工智能會出現數據處理失誤和失控的現象。   邪惡的人工智能? 雖然人工智能不受情緒和疲憊影響,有助減少人為錯誤,但人工智能確實存在出錯的機會。即使開發自行駕駛的原意是為了減少人類因分心或酒駕等原因造成的交通意外,並透過自動駕駛系統調整駕駛路線和行使速度,令道路暢順及提升能源使用效率,汽車系統曾因失誤未有啟用安全措施導致嚴重交通意外。事實上,還有其他人工智能的失誤,例如金融算法故障及醫療系統失誤,造成財產損失、倫理問題和人身傷害等嚴重後果。   邪惡的人? 為什麼人工智能會出錯呢?是人工智能鬧脾氣嗎?大部分的人工智能都是從人類所提供的數據中「學習」,並根據人類所編寫的程式給予相應的回應。訓練人工智能需要數以百萬計的數據,一旦訓練數據出現偏見或不完整的内容,人工智能的結果便會與人的普遍認知有偏差。另外,模型的設計也會影響人工智能的學習和推斷能力,並非所有人工智能都能解答所有類型的疑問,因此出現結果是準的情況。因此,訓練人工智能時需加入多元的數據及持續的監察,避免單一角度的數據壟斷,同時設計模型時應該「教導」人工智能誠實回答不確定的答案。   善良的人 善良的人工智能 由於人工智能的「善惡」由人類賦予,我們有能力創造「善良」的人工智能。在設計人工智能的過程加入道德原則,例如利用全面的資料庫進行訓練以達到公平的,亦可要求人工智能決策時優先考慮人類的權益。開發者亦需定期更新訓練數據及監察人工智能的結果是否符合標準以評估其表現,亦可加入舉報機制以便使用者提出意見以進行改善。使用者也需學習善用人工智能,避免向人工智能輸入意識不良的資訊,影響其學習過程。   想一想: 人類如果不當使用人工智能,責任應該由誰承擔?是人工智能的開發者,使用者還是人工智能本身? 你認為人工智能應該參與,例如招聘系統篩選、醫療資源分配及金融信貸評分等的倫理判斷嗎?   延伸閱讀: https://hk.news.yahoo.com/gm-ends-support-for-cruise-robotaxis-090147818.html?guccounter=1&guce_referrer=aHR0cHM6Ly93d3cuZ29vZ2xlLmNvbS8&guce_referrer_sig=AQAAACkPRcxo9lJ7QDi-Q7Y2skR6zWPc30o2JmsEe7p0YCN74Yqposz-Z1Qg3nTDcp5w45O8S1B9xPir2p8UAZBE1tAYCcrq8GgeZ8FNpSTWEeDl3C4fHIqjvSMq7_LGAAzGopNvr2x1g8sOJOz8Y3PT0uxiLK7b7HP4miI_703EfI9C  其他文章 人工智能的善惡 復仇者聯盟

復仇者聯盟

復仇者聯盟 失控警示! Avengers assemble! 這兩個簡單而充滿力量的字令Marvel迷聽得熱血沸騰,令人不禁重溫一幕幕扣人心弦的艱辛和勝利。但你知道嗎?除了薩諾斯(Thanos)這個勁敵,復仇者聯盟面對的還有由人類自己創造的人工智能奧創(Ultron)。明明奧創的開發者Ironman(鋼鐵俠)和Hulk(綠巨人)都是旨在守護地球的復仇者,為什麼會創造消滅人類的人工智能呢?其實奧創屬於超級人工智能,懂得自我學習,會自動吸收知識並加以分析以改進思想。由於奧創的目標被設定為「守護地球」,但奧創從學習中發現人類會製造戰爭和污染等破壞,認為人類會「傷害」地球。因此根據自己的了解得出「守護地球便要消滅人類」的極端結論,意圖利用高智慧搶奪人類的資源以消滅人類。雖然復仇者聯盟最終擊破奧創的陰謀,但仍然造成不少的社會破壞。這無疑給予我們警示,當人工智能不受控制的「學習」和「分析」,有機會作出違反倫理和道德的行為,我們也有必要學習控制人工智能。 現實中的「奧創」? 奧創高超的智慧和行為令人不寒而慄,甚或令人對人工智能卻步。現實中的人工智能也會演變成奧創一樣嗎?奧創的特別之處在於擁有自我意識,透過自己的學習理解目標——守護地球的意思,並自行執行任務;現時的人工智能一般為「狹義智能」,意即目標由開發者而定,執行有限度的任務,沒有重新分析目標及決策的能力。可見現時人工智能的技術未足以創作奧創,但兩者確實有相似之處。深度學習為現時主要的人工智能技術,從大量的資料中學習規律,達到影像識別、語音理解和生成。然而,這技術無法讓人工智能「理解」和「建立」獨有的價值觀,正是與奧創有分別的地方。 人工智能造成的破壞應由誰負責? 即使奧創的原意是保護地球,但其行為確實為人類帶來破壞,造成人命傷亡、財產損失及社會的安定。這是誰的責任?是開發者的責任嗎?是奧創自己的責任嗎?還是使用者,理想地收保護的大家,是共同責任呢?在復仇者聯盟的故事中,Ironman負責處理這場災難。現實中,由誰負責人工智能的失誤同樣是熱議,到底是軟件開發者、使用者,還是規範人工智能發展的政府部門需為人工智能的失誤附上責任呢?責任邊界確實不清晰,但開發者應該投放更多資源在監管人工智能,定時檢查人工智能接受的資料及進行軟件更新。我們亦可出一份力,正確和友善地使用人工智能,遇到人工智能出現異常時,即時舉報以協助監管。 想一想: 你認為當人工智能擁有自主學習的能力後,開發者能完全掌握人工智能的目標和行為嗎? 你認為人工智能可以擁有人類情感和獨立的價值觀嗎?你希望人工智能擁有這些特質嗎? 其他文章 人工智能的善惡 復仇者聯盟