生成式人工智能 Generative AI

自ChatGPT的出現以來,大家對人工智能的關注急速上升,到底人工智能是甚麼?它可以做甚麼?我們就以ChatGPT為起點討論人工智能吧!它其實屬於生成式人工智能(Generative AI),顧名思義是用以產生內容 生成式人工智能 Generative AI 生成式人工智能是甚麼? 自ChatGPT的出現以來,大家對人工智能的關注急速上升,到底人工智能是甚麼?它可以做甚麼?我們就以ChatGPT為起點討論人工智能吧!它其實屬於生成式人工智能(Generative AI),顧名思義是用以產生內容,包括文字、圖像、音樂甚至程式碼。近日在社交媒體不斷看到的人類及模型合成照是由Google推出的圖像生成及編輯模型Genmini 2.5 Flash Image生成的。這個模型屬於Gemini系列,結合了Gemini出色的語言理解能力與圖像生成能力。而「2.5」也顯示了版本的升級,可見公司不斷地優化模型以提升模型的生成速度及圖張質素。而其他被廣泛使用的生成式人工智能包括由OpenAI開發並專注於文本生成的ChatGPT及由GitHub及OpenAI共同開發並專注於編程的GitHub Copilot等。這類機械人不僅以預設的規則回答問題,而且透過深度學習神經網絡,創造內容,讓人讚嘆其進步並思考人工智能的能力和應用。 生成式人工智能訓練 生成式人工智能先閱讀數以兆計啲資料,之後透過深度學習「思考」,最後生成內容。生成對抗網絡(Generative Adversarial Network)及大型語言模型(Large Language Model)是生成式人工智能其中兩個重要的深度學習模型,分別負責生成影像及文字。我們可以想像深度學習技術為模擬人腦運作的方式,以多層神經網絡逐步理解意思,並預測結果。訓練生成式人工智能的難度在於準備真實、公正而合乎法律規管的海量資料。以GPT-4為例,訓練時需約千億個參數以調整模型輸入數據的反應,當模型的理解及生成能力相對高,可以生成更自然及精準的内容。然而,這也帶出了它需要海量的數據進行訓練,約為維基百科全文的數百倍,龐大的參數需要強大的運算資源,包括運算設備、雲端平台、存儲資源及網絡基礎設施。成本相當高。 生成式人工智能應用 作為生成式人工智能,聊天機械人經常被視為「行走的百科全書」,解答我們各類的問題。就着文本生成,除了回答問題,它還可以根據我們給予的提示詞生成各類的內容,例如時間表、旅遊行程及簡報等。其出色之處在於理解我們的要求,並搜索資訊以提供個人化的建議。而其他類型的生成式人工智能同讓受人歡迎,你記得眼睛很大的木條、穿着球鞋的鯊魚、身穿芭蕾舞衣的卡布其諾人嗎?這些都是意大利大腦腐蝕(Italian brainrot)的內容,不論是圖像,還是具意大利口音的配音都是有人工智能生成。這些內容被廣泛上傳至串流平台,以 ‘brainrot’ 為主題的影片更獲得高達一億以上的觀看次數,是2025年的熱話之一。 濫用 生成式人工智能確實為我們帶來很多便利,但當它被騙徒或不法分子濫用時便會對社會的安定造成威脅。人工智能平台的普及讓大家都能輕易生成內容,若人們的影像被用以生成不實甚或不雅的內容並流傳,會對其聲譽及心理健康造成很大的損害。加上生成內容的質素一直隨著訓練提升,增加我們分辨內容真偽的難度,容易不慎跌入騙徒的圈套。深度偽造影像(Deepfake)的技術引起大眾極大的關注,原因在於經過重重訓練的人工智能生成的圖像實在太過真實了,配合模擬聲線的技術,要以特定人物為主角生成一段具影像和聲音的短片,可說是易如反掌。這些技術帶出了人工智能的技術不再只是人們作為娛樂的工具,更有機會成為騙徒的犯案工具。 人工智能的出現提升了我們的辦事效率,亦喚醒了我們對資訊科技安全的警覺。然而,我們應善用人工智能,而非濫用它作為。 想一想 你會運用生成式人工智能嗎?如果會,你會生成甚麼內容? 你認為生成式人工智能對教育有甚麼影響? 其他文章 生成式人工智能 Generative AI 人工科技泡沫 用科技(AI、Arduino、3D打印)令學生嘅創意成真
人工科技泡沫

自ChatGPT的出現以來,人們對人工智能可說是既崇拜又畏懼。以教育行業為例,一直推廣人工智能的課程,提醒學生需與時並進,捉緊各地科技的最新趨勢,卻又一直提防學生利用人工智能完成作業。 人工智能泡沫 人工智能的能力 自ChatGPT的出現以來,人們對人工智能可說是既崇拜又畏懼。以教育行業為例,一直推廣人工智能的課程,提醒學生需與時並進,捉緊各地科技的最新趨勢,卻又一直提防學生利用人工智能完成作業。人工智能似乎能修正所有文法錯誤,似乎能解開所有數學謎底,又似乎能解釋所有科學現象,到底人工智能的能力有甚麼限制?看着一篇又一篇指出人工智能剝奪工作席位的報章,人工智能真的能就這樣取代人類嗎?近日逐漸出現關於人工智能的發展的討論,開始有人認為其發展被高估,造成「AI泡沫」的現象。 甚麽是「AI泡沫」? 「泡沫」深受人喜愛,卻是一觸即破。在「泡沫」二字前加上名詞一般指人們對物品相當喜愛,但該物品是會破滅的。就如1995年至2001年間的「網際網絡泡沫」(科網股泡沫),當時人們受社會熱潮、市場炒作、股價浮動等等的因素影響,對新興的網絡期望過高,超越了實際價值,造成其後的幻想破滅。然而,這對我們有甚麼影響呢,不就是科技發展的速度未能達到預期嗎?事實上,科技的發展影響著數百億的資金動向,影響著科技公司的命運,影響著我們大部分人的生活。以科網股泡沫為例,由於投資者認為網絡發展會得到成功,因此投入大量資金,令相關的公司股價被過分推高。一旦公司的發展未如理想,投資者便會失去信心,逐漸開始售出股票,導致公司股價下跌。股價下跌導致公司融資的能力下降,增加營運壓力的同時降低股東和投資者的信心,造成惡性循環,因此公司倒閉也是泡沫破滅的其中一個結果。 人工智能是泡沫嗎? 那麼,人工智能是泡沫嗎?作為人類的助手,我們已經可在教育、經濟和醫療等多個範疇體驗人工智能的威力。然而,我們對人工智能的期望到底是甚麼?不少人認為人工智能將會如人一樣行動和說話,取代人類的工作,為的不是剝奪人們工作的機會,而是締造一個更舒適的生活環境以提升人類的生活質素。人工智能的科技,如生成式人工智能(Generative AI)、人工智能代理(AI Agents)及個人化人工智能等的出現讓我們驚歎人工智能的能力,認為它無所不能,但它真的能取代人嗎?即使人工智能可透過個人化學習計畫及即時的詢問提升學生的學習效能,它始終無法取代老師的互動教學及情感支援;即使人工智能可透過快速地分析數據和影像及早發現疾病,它始終無法取代醫生的技術操作及臨床經驗。因此,人工智能在發展成「人」的還有一段漫長的路,而且在「自主學習」和「倫理安全」還是令社會有一定的擔憂。 人工智能訓練挑戰 泡沫破滅除了是投資者的預期過高,還存在發展速度的考量。訓練人工智能需要龐大的資源,也需要面對各種挑戰。以生成式人工智能為例,它是經過數兆個數據訓練而成的模型,我們可以想像成它閱讀了整個圖書館數以萬計的書籍後,才能上知天文,下知地理。而閱讀如此大量的資料需要極大的運算能力,意即需要大量的能源及配件進行訓練,成本相當高。除了配套,「數據人隱私與安全」也是訓練人工智能的阻力,由於訓練時需要海量的數據,包括文字、影像和錄音,不時包括受版權保護的作品和用戶個人資料。若資料被外洩或不當使用會對用戶造成嚴重的損害,因此數據監管成為訓練的一大挑戰。 或許人工智能未必會在短期內成為我們的日常夥伴,但只要我們視它為輔助工具,善用而不濫用,相信它能改善我們的生活。面對林林總總的新科技和產品,保持理性思維思考實際情況才最有保障。 想一想 你認為人工智能是「泡沫」嗎?為甚麼? 你如何評價人工智能的發展速度?你能想像十年後的人工智能可以做甚麼嗎? 其他文章 生成式人工智能 Generative AI 人工科技泡沫 用科技(AI、Arduino、3D打印)令學生嘅創意成真
Brain rot 大腦腐蝕

Brain rot 這個詞語早在1854年已經出現,但於在2023年至2024年間使用頻率急升了230%,更成為2024年的牛津詞典的年度流行詞。這個詞的意思是人的精神或智力狀態 Brain rot 大腦腐蝕 甚麽是Brain rot? Brain rot 這個詞語早在1854年已經出現,但於在2023年至2024年間使用頻率急升了230%,更成為2024年的牛津詞典的年度流行詞。這個詞的意思是人的精神或智力狀態惡化,尤其因為過度消費被視為瑣碎或沒有價值的資訊。甚麽内容會被標簽為「沒有價值」呢?被指brain rot的内容通常沒有特定意義,而且内容重複,換言而之,是消耗時間但無助思考的内容。 荒謬卻受人喜愛? Brain rot 的短片一般時長15至60秒,由於影片大多為人工智能生成,因此内容難免會重複,甚至會出現荒謬的畫面。加上人工智能的效率極高,數分鐘便可以生成一條完整的短片,一度令這類的視頻淹沒社交媒體。Italian Brainrot(意大利腦腐)便是2025年風靡一時的迷因,其荒誕的劇情及配音吸引了上億的用戶觀看。在串流平台上,不少頻道以 ‘Brianrot’ 為賣點吸引用戶觀看,甚至有影片的觀看次數高達1.6億。 數十秒的短片如何影響我們? 或許你會懷疑:幾十秒的影片足以影響人嗎?事實上,正因為這些短片短,而且內容淺白,無需要深度思考,讓人放鬆忘記了時間,變成耗時的習慣。而且觀看視頻時釋放的多巴胺讓我們感受到「喜悅」,因此不斷將時間投放在短片上。然而,長時間接觸具刺激的内容會增加大腦皮質的功能受阻的風險,從而降低對情緒控制的能力,容易感到不安或激動。試想像當我們常常被意義不明的内容吸引,我們的腦會累嗎?當然會啊!我們會變得容易分心,減低接受訊息的能力,更重要的是深度思考能力受影響。要知道「思考」也是需要日常的培養和訓練的,長期接受低質量的信息難免讓腦袋「過度輕鬆」,漸漸失去分析和判斷的能力。 預防方法! 要預防被 ‘Brianrot’ 的內容影響,其中一個方法就是避免僵尸滑手機(Zombie Scrolling)——慣性滑動手機。我們難免會想在繁忙的生活中使用電話,放鬆一下心情,但我們需要注意使用電話的頻率和時間,更需注意自己抱著甚麼心態使用手機。是為了獎勵自己辛勞工作了一天?還是為了逃避未完成的工作?還是以滑動手機掩飾焦慮而發抖的雙手?記得要找出問題的源頭才能作出治標治本的方法,防止自己麻木地沉迷使用電話才是預防 ‘brainrot’ 的方法! 想一想 你認為 ‘brain rot’ 對人們的社交生活有甚麼影響? 除了觀看 ‘brain rot’ 的短片外,你認為甚麼行為會造成 ‘brainrot’? 其他文章 生成式人工智能 Generative AI 人工科技泡沫 用科技(AI、Arduino、3D打印)令學生嘅創意成真
智能懷孕

智能懷孕 智能懷孕? 「智能」應該讓大家聯想到人工智能,那麼智能懷孕就是人工智能懷孕嗎?是的,這情節不再只是科幻電影的情節,真的有機會成真了。智能懷孕就是由機器人運用「人工子宮」懷孕及生子的技術。甚麽是人工子宮呢?它的作用又是甚麽呢?人工子宮就是機器人模擬人體子宮的部分,負責為胚胎提供理想的成長狀態,包括溫度、營養輸送及代謝廢物處理。而人工智能也會運用技術監察胚胎的成長狀況,根據其需要給予適當的營養補充。這科技看似有助胚胎更健康地成長,而是次引起廣汎討論的也不是這科技的原理,而是其帶來的倫理挑戰。 生育自由? 在討論智能懷孕帶來的問題之前,可以先想一下,智能懷孕的發明原因是甚麽?不少人認為這個發明能有效提升生育率,幫助大量因生理條件未能自然懷孕的女性實現生育的願望。加上現今社會有許多女性因各種因素延後生育計劃,令健康風險成為生育的一大考量,對生育更為卻步。智能懷孕確實減低了女性在妊娠期間的不適及出現併發症的機率,雖然母親依然會時刻緊張嬰兒的安危,但在母親相對安全的情況下,生育壓力似乎減輕了。 親子關係? 智能懷孕的出現也讓人思考親子關係,尤其父母在胚胎成長時的角色。傳統的生育方式中,母親常被視為與胎兒有著極緊密的連繫,除了24小時的陪伴,生活上事無大小都以肚裏的嬰兒為先,還要嚴格控制自己的生活習慣和情緒,給予嬰兒最好的營養及關心。當母親和胎兒失去與共同成長的經歷,母親的心理建立會受影響嗎?那麽「胎教」還存在嗎?由誰為胎兒唱搖籃曲呢?父親又可以在機器人懷孕的時間做甚麽呢? 個人隱私? 不論任何人工智能科技的都會出現的問題——隱私。在智能懷孕開始的時候需要收集甚麽個人資料?在懷孕途中,父母可以探望機器人嗎?如果可以,對話内容會被當作資料進行收集嗎?嬰兒成長的過程會被記錄嗎?嬰兒出生後,還需要進行檢查,或是提供成長資料嗎?這些資料會被用作甚麽用途?似乎有數之不盡的隱私問題需要清晰列明,以保障個人資料不被濫用。 希望與挑戰 智能懷孕為家庭帶來生育的機會,同樣為社會帶來道德 的爭議,相信其支持和反對會持續一段時間。科技一直默默進步,而我們也要學會與他們共處,在科技發展與道德之間找到平衡。 想一想 你認為智能懷孕有助提升出生率嗎? 你覺得智能懷孕會普及嗎? 其他文章 人工智能的版權 人工智能的版權 太親近的人工智能
人工智能的版權

人工智能的版權 You Belong With Me ‘You belong with me’ 這首歌大家都耳熟能詳,你知道這首歌是誰的嗎?不是歌手,而是這首歌的擁有權歸誰。‘You belong with me’ 屬於 Taylor Swift 早期六張專輯的其中一首主打歌,版權原本屬於其前唱片公司——大機器唱片(Big Machine Records),近期 Taylor Swift 以數億美金買回這些母帶版權,並在社交媒體上以 ’You belong with me’ 為説明公佈這喜訊,宣佈她的創作正式屬於她自己。自己的創作不屬於自己,這句話看似滑稽,但原來版權爭議確實存在。以歌曲為例,創作牽涉的人包括作曲人、作詞人、演唱者及音樂製作人,他們各自擁有歌曲某部分的權力。例如演唱者擁有歌曲的表演權,但並非一定「擁有」這首歌,無法控制這首歌的使用。 甚麽是版權? 到底甚麽是版權?是所有產品也有版權嗎?根據世界知識產權組織(WIPO)的解釋,版權包括人身權及財產權,兩個部分分別保障作者的精神利益及經濟利益。不同類別的原創作品也會收到版權保護,其中包括文學、藝術、音樂、戲劇、軟件及數據庫等,意在保護作品的「具體表達方法」。換而言之,保護的是我們看得見和聼的到的東西,而非概念和思想。只要作品具原創性並以固定形式發表,便會收到版權保障,無需申請。只有作者可以控制作品的複製、發行、展示及改編等,避免作品被不當使用,而公衆亦享有知識共享的權力。 人工智能的版權爭議 版權爭議的出現大多基於人們對作品的「原始性」或「創作性」產生質疑。一旦作品不是由作家獨立創作,而是抄襲他人或作品無法體現個人特質,作品則不會受著作權保護。近年來,人工智能版權就以上的兩個保障門檻,引發大家激烈討論。這篇文章所指的「作者」的條件是人類,而人工智能是工具,因此不能成為「作者」。故此,人工智能生成的作品缺乏「原創性」通常不會收到版權保護。然而,如果人類以人工智能協助創作,人類通常擁有作品的版權。為甚麽是「通常」?因為不同地方對人工智能貢獻的作品版權有不同的理解。以美國為例,《著作權與人工智能報告》中強調人類需有足夠的「創造性投入」才會擁有著作權,意思是輸入提示詞產生的内容不會獲得保障。而香港則採用「人為創作原則」,強調人工智能是工具,以保障人類作者為先。 版權的重要 你可能會疑問:人工智能生成的内容不被保障,作品容易被濫用,跟人類有甚麽關係?事實上,人工智能的訓練數據大多為受版權保護的内容,曾經出現人工智能公司使用未經授權的作品訓練模型,牽涉侵權爭議。另外,人工智能生成的作品有機會與訓練的作品高度相似,同樣會陷入侵權的危機。這些降低了創作者本身的保障,再者,人工智能快速生成作品的能力有機會導致市場競爭壓力,減低人類創作的動力。即使人工智能簡化了創作的難度,令更多人能創作,但各地對人工智能生成的作品版權未有明確的法律規定,都減少人類創作的意願。面對人工智能在創作上的進步,加強法律規管才能保障作者和技術發展的平衡,實現人機合作的畫面。 想一想 你認為人工智能在人類創作中擔任甚麽角色? 你認為人工智能生成的内容應該有版權嗎?如果有,應該由誰擁有版權呢? 其他文章 太親近的人工智能 太親近的人工智能 人工智能技術
AI Vtuber 人工智能虛擬偶像

AI Vtuber 人工智能虛擬偶像 AI VTuber 是甚麼? 相信大家對 Vtuber(Virtual YouTuber)並不陌生,當虛擬偶像結合 AI 會出現產生甚麼呢?近年,開發者創作外表及聲線獨特的 AI VTuber,配合人工智能生成的語言及內容,達之與觀眾即時交流。AI VTuber 在串流平台興起,甚至出現全天候自動直播,以生動和意想不到的回答為觀眾帶來創新的互動體驗。 24小時的陪伴? AI VTuber 突破了時間及精力的限制,全年無休地進行在線直播,即時與觀眾互動。隨著科技發展,越來越多 AI VTuber 在串流平台開始長時間的全自動直播,例如 Yuri和MAVE 都會透過人工智能系統啟動直播並進行個人化的回覆。 個人思想?傳統的 AI 機械人普遍不會擁有個人思想,通常從大量的數據進行訓練以給予用戶標準化的答案。然而,AI VTuber 強調與觀眾的互動,從觀眾的話題和情緒中學習與人交流,調整自己的行為和回答,做到具備個人想法的「虛擬朋友」。Neuro Sama 就是其中一位能進行遊戲直播,並在回答觀眾中展現幽默思想的智能化虛擬偶像。 謹慎交「友」! 由於 AI VTuber 終究是被大數據和觀眾的對話「教育」,擁有一定的個人思想,加上難以長期實時監管直播,導致有機會出現 AI VTuber 對答內容及行為不當的情況。因此在觀看直播或與 AI VTuber 進行交流時應注意訊息的真假,避免將 AI VTuber 作為情緒的倚靠。大家亦應該小心處理個人資料,時刻提醒自己在現實及網絡世界中皆要保護私隱。 想一想: 你認為設計 AI VTuber 的目的是甚麼?為甚麼會出現 AI […]
智能新聞

智能新聞? 齊來迎接夢幻的家庭之旅! 荃灣「夢想樂園」誠意呈獻全新的「彩虹探險之旅」嘉年華,將於2025年12月13日隆重舉行!現場設有彩虹隧道及雲朵迷宮等多個精彩互動遊戲區及攤位遊戲,讓小朋友在繽紛的樂園盡情探索。小朋友可參加挑戰樂園的限時任務,完成後獲贈「探險徵章」及限量糖果禮包。快來與家人開啟一場充滿色彩與歡樂的彩虹之旅吧! 智能新聞? 你準備好到參與這個精彩的「彩虹之旅」嗎?停一停!「夢想樂園」是新開幕的主題樂園嗎?不是!以上的段落為人工智能的「創作」,並不是真實的宣傳。只要向人工智能輸入具體的條件,人工智能便能生成文章和圖像,甚至為你構思新聞內容。這些由人工智能所創作的「新聞」不僅圖文並茂,敘事及情感表達的方式也像人類的創作,讓不少人信以為真。 虛假新聞及訊息 除了假的文字和圖片,虛假的短片更令人心寒。人工智能軟件Deepfake被廣泛用作製作虛假訊息的工具,透過搜集目標人物的圖像便能生成虛構但逼真的影片,甚至模仿其聲線。這種仿真效果令人難以分辨真假,不但誤導公眾,而且對當事人的聲譽造成威脅。假新聞的出現損害媒體的公信力,影響正常的信息交流,而長期接觸虛假訊息令人減少對事物的信任,容易產生焦慮。 分辨真假 在資訊泛濫的時代,我們需訓練判斷辨別真偽的能力。當看到令人懷疑的新聞時,先要保持冷靜,仔細閱讀文章內容、查證新聞來源及對比其他平台的報章,以確保資料可信。同樣,當收到陌生來電或短信,需謹慎處理,切勿點擊不明連結或披露個人資料。即便收到由親友傳來但有可疑的訊息,也應保持冷靜,先聯絡相關的人確認真假,後作出相應的行動,提防被騙。 想一想: 為甚麼有些假新聞能讓人相信,讓人相信的新聞有甚麼特點? 隨著人工智能的發展,有機會增加辨別假新聞的難度,你認為有甚麼方法可以提升大家的判斷力? 延伸閱讀: https://businessfocus.io/article/335949/%E4%B8%80%E5%A0%B4%E5%BE%9E%E6%B2%92%E7%99%BC%E7%94%9F%E7%9A%84%E7%81%BD%E9%9B%A3-ai%E5%81%87%E6%96%B0%E8%81%9E%E9%A8%99%E5%80%92%E5%85%A8%E5%9C%8B https://www.adcc.gov.hk/zh-hk/anti-scam-publicity-material.html https://www.youtube.com/watch?v=J56oMYQ2Heg 其他文章 人工智能心理 人工智能發展的光與影 AI Vtuber 人工智能虛擬偶像
人工智能的善惡

人工智能的善惡 人工智能的發展 人工智能由人類日常的得力助手發展成令人類擔心的工具,到底發生了甚麼事?設計人工智能的最初目的是為了讓電腦模仿人類進行思考,從而擁有學習和解決問題的能力。科學家「教導」人工智能邏輯推斷和演算法,找出最佳答案,因此出現早期人類與人工智能下棋的畫面。其後,人工智能技能愈加成熟,出現語音及圖像識別功能。人工智能現擅於「深度學習」,以多層神經網絡分析大數據,並進行預測,甚至自行創作和學習。正因為人工智能擁有「自行」判斷和回答的能力,人類開始擔心人工智能會出現數據處理失誤和失控的現象。 邪惡的人工智能? 雖然人工智能不受情緒和疲憊影響,有助減少人為錯誤,但人工智能確實存在出錯的機會。即使開發自行駕駛的原意是為了減少人類因分心或酒駕等原因造成的交通意外,並透過自動駕駛系統調整駕駛路線和行使速度,令道路暢順及提升能源使用效率,汽車系統曾因失誤未有啟用安全措施導致嚴重交通意外。事實上,還有其他人工智能的失誤,例如金融算法故障及醫療系統失誤,造成財產損失、倫理問題和人身傷害等嚴重後果。 邪惡的人? 為什麼人工智能會出錯呢?是人工智能鬧脾氣嗎?大部分的人工智能都是從人類所提供的數據中「學習」,並根據人類所編寫的程式給予相應的回應。訓練人工智能需要數以百萬計的數據,一旦訓練數據出現偏見或不完整的内容,人工智能的結果便會與人的普遍認知有偏差。另外,模型的設計也會影響人工智能的學習和推斷能力,並非所有人工智能都能解答所有類型的疑問,因此出現結果是準的情況。因此,訓練人工智能時需加入多元的數據及持續的監察,避免單一角度的數據壟斷,同時設計模型時應該「教導」人工智能誠實回答不確定的答案。 善良的人 善良的人工智能 由於人工智能的「善惡」由人類賦予,我們有能力創造「善良」的人工智能。在設計人工智能的過程加入道德原則,例如利用全面的資料庫進行訓練以達到公平的,亦可要求人工智能決策時優先考慮人類的權益。開發者亦需定期更新訓練數據及監察人工智能的結果是否符合標準以評估其表現,亦可加入舉報機制以便使用者提出意見以進行改善。使用者也需學習善用人工智能,避免向人工智能輸入意識不良的資訊,影響其學習過程。 想一想: 人類如果不當使用人工智能,責任應該由誰承擔?是人工智能的開發者,使用者還是人工智能本身? 你認為人工智能應該參與,例如招聘系統篩選、醫療資源分配及金融信貸評分等的倫理判斷嗎? 延伸閱讀: https://hk.news.yahoo.com/gm-ends-support-for-cruise-robotaxis-090147818.html?guccounter=1&guce_referrer=aHR0cHM6Ly93d3cuZ29vZ2xlLmNvbS8&guce_referrer_sig=AQAAACkPRcxo9lJ7QDi-Q7Y2skR6zWPc30o2JmsEe7p0YCN74Yqposz-Z1Qg3nTDcp5w45O8S1B9xPir2p8UAZBE1tAYCcrq8GgeZ8FNpSTWEeDl3C4fHIqjvSMq7_LGAAzGopNvr2x1g8sOJOz8Y3PT0uxiLK7b7HP4miI_703EfI9C 其他文章 人工智能的善惡 復仇者聯盟
復仇者聯盟

復仇者聯盟 失控警示! Avengers assemble! 這兩個簡單而充滿力量的字令Marvel迷聽得熱血沸騰,令人不禁重溫一幕幕扣人心弦的艱辛和勝利。但你知道嗎?除了薩諾斯(Thanos)這個勁敵,復仇者聯盟面對的還有由人類自己創造的人工智能奧創(Ultron)。明明奧創的開發者Ironman(鋼鐵俠)和Hulk(綠巨人)都是旨在守護地球的復仇者,為什麼會創造消滅人類的人工智能呢?其實奧創屬於超級人工智能,懂得自我學習,會自動吸收知識並加以分析以改進思想。由於奧創的目標被設定為「守護地球」,但奧創從學習中發現人類會製造戰爭和污染等破壞,認為人類會「傷害」地球。因此根據自己的了解得出「守護地球便要消滅人類」的極端結論,意圖利用高智慧搶奪人類的資源以消滅人類。雖然復仇者聯盟最終擊破奧創的陰謀,但仍然造成不少的社會破壞。這無疑給予我們警示,當人工智能不受控制的「學習」和「分析」,有機會作出違反倫理和道德的行為,我們也有必要學習控制人工智能。 現實中的「奧創」? 奧創高超的智慧和行為令人不寒而慄,甚或令人對人工智能卻步。現實中的人工智能也會演變成奧創一樣嗎?奧創的特別之處在於擁有自我意識,透過自己的學習理解目標——守護地球的意思,並自行執行任務;現時的人工智能一般為「狹義智能」,意即目標由開發者而定,執行有限度的任務,沒有重新分析目標及決策的能力。可見現時人工智能的技術未足以創作奧創,但兩者確實有相似之處。深度學習為現時主要的人工智能技術,從大量的資料中學習規律,達到影像識別、語音理解和生成。然而,這技術無法讓人工智能「理解」和「建立」獨有的價值觀,正是與奧創有分別的地方。 人工智能造成的破壞應由誰負責? 即使奧創的原意是保護地球,但其行為確實為人類帶來破壞,造成人命傷亡、財產損失及社會的安定。這是誰的責任?是開發者的責任嗎?是奧創自己的責任嗎?還是使用者,理想地收保護的大家,是共同責任呢?在復仇者聯盟的故事中,Ironman負責處理這場災難。現實中,由誰負責人工智能的失誤同樣是熱議,到底是軟件開發者、使用者,還是規範人工智能發展的政府部門需為人工智能的失誤附上責任呢?責任邊界確實不清晰,但開發者應該投放更多資源在監管人工智能,定時檢查人工智能接受的資料及進行軟件更新。我們亦可出一份力,正確和友善地使用人工智能,遇到人工智能出現異常時,即時舉報以協助監管。 想一想: 你認為當人工智能擁有自主學習的能力後,開發者能完全掌握人工智能的目標和行為嗎? 你認為人工智能可以擁有人類情感和獨立的價值觀嗎?你希望人工智能擁有這些特質嗎? 其他文章 人工智能的善惡 復仇者聯盟
