生成式人工智能 Generative AI

生成式人工智能 Generative AI 生成式人工智能是甚麼? 自ChatGPT的出現以來,大家對人工智能的關注急速上升,到底人工智能是甚麼?它可以做甚麼?我們就以ChatGPT為起點討論人工智能吧!它其實屬於生成式人工智能(Generative AI),顧名思義是用以產生內容,包括文字、圖像、音樂甚至程式碼。近日在社交媒體不斷看到的人類及模型合成照是由Google推出的圖像生成及編輯模型Genmini 2.5 Flash Image生成的。這個模型屬於Gemini系列,結合了Gemini出色的語言理解能力與圖像生成能力。而「2.5」也顯示了版本的升級,可見公司不斷地優化模型以提升模型的生成速度及圖張質素。而其他被廣泛使用的生成式人工智能包括由OpenAI開發並專注於文本生成的ChatGPT及由GitHub及OpenAI共同開發並專注於編程的GitHub Copilot等。這類機械人不僅以預設的規則回答問題,而且透過深度學習神經網絡,創造內容,讓人讚嘆其進步並思考人工智能的能力和應用。   生成式人工智能訓練 生成式人工智能先閱讀數以兆計啲資料,之後透過深度學習「思考」,最後生成內容。生成對抗網絡(Generative Adversarial Network)及大型語言模型(Large Language Model)是生成式人工智能其中兩個重要的深度學習模型,分別負責生成影像及文字。我們可以想像深度學習技術為模擬人腦運作的方式,以多層神經網絡逐步理解意思,並預測結果。訓練生成式人工智能的難度在於準備真實、公正而合乎法律規管的海量資料。以GPT-4為例,訓練時需約千億個參數以調整模型輸入數據的反應,當模型的理解及生成能力相對高,可以生成更自然及精準的内容。然而,這也帶出了它需要海量的數據進行訓練,約為維基百科全文的數百倍,龐大的參數需要強大的運算資源,包括運算設備、雲端平台、存儲資源及網絡基礎設施。成本相當高。   生成式人工智能應用 作為生成式人工智能,聊天機械人經常被視為「行走的百科全書」,解答我們各類的問題。就着文本生成,除了回答問題,它還可以根據我們給予的提示詞生成各類的內容,例如時間表、旅遊行程及簡報等。其出色之處在於理解我們的要求,並搜索資訊以提供個人化的建議。而其他類型的生成式人工智能同讓受人歡迎,你記得眼睛很大的木條、穿着球鞋的鯊魚、身穿芭蕾舞衣的卡布其諾人嗎?這些都是意大利大腦腐蝕(Italian brainrot)的內容,不論是圖像,還是具意大利口音的配音都是有人工智能生成。這些內容被廣泛上傳至串流平台,以 ‘brainrot’ 為主題的影片更獲得高達一億以上的觀看次數,是2025年的熱話之一。   濫用 生成式人工智能確實為我們帶來很多便利,但當它被騙徒或不法分子濫用時便會對社會的安定造成威脅。人工智能平台的普及讓大家都能輕易生成內容,若人們的影像被用以生成不實甚或不雅的內容並流傳,會對其聲譽及心理健康造成很大的損害。加上生成內容的質素一直隨著訓練提升,增加我們分辨內容真偽的難度,容易不慎跌入騙徒的圈套。深度偽造影像(Deepfake)的技術引起大眾極大的關注,原因在於經過重重訓練的人工智能生成的圖像實在太過真實了,配合模擬聲線的技術,要以特定人物為主角生成一段具影像和聲音的短片,可說是易如反掌。這些技術帶出了人工智能的技術不再只是人們作為娛樂的工具,更有機會成為騙徒的犯案工具。   人工智能的出現提升了我們的辦事效率,亦喚醒了我們對資訊科技安全的警覺。然而,我們應善用人工智能,而非濫用它作為。   想一想 你會運用生成式人工智能嗎?如果會,你會生成甚麼內容? 你認為生成式人工智能對教育有甚麼影響?   其他文章 生成式人工智能 人工科技泡沫 用科技(AI、Arduino、3D打印)令學生嘅創意成真

人工科技泡沫

人工智能泡沫 人工智能的能力 自ChatGPT的出現以來,人們對人工智能可說是既崇拜又畏懼。以教育行業為例,一直推廣人工智能的課程,提醒學生需與時並進,捉緊各地科技的最新趨勢,卻又一直提防學生利用人工智能完成作業。人工智能似乎能修正所有文法錯誤,似乎能解開所有數學謎底,又似乎能解釋所有科學現象,到底人工智能的能力有甚麼限制?看着一篇又一篇指出人工智能剝奪工作席位的報章,人工智能真的能就這樣取代人類嗎?近日逐漸出現關於人工智能的發展的討論,開始有人認為其發展被高估,造成「AI泡沫」的現象。   甚麽是「AI泡沫」? 「泡沫」深受人喜愛,卻是一觸即破。在「泡沫」二字前加上名詞一般指人們對物品相當喜愛,但該物品是會破滅的。就如1995年至2001年間的「網際網絡泡沫」(科網股泡沫),當時人們受社會熱潮、市場炒作、股價浮動等等的因素影響,對新興的網絡期望過高,超越了實際價值,造成其後的幻想破滅。然而,這對我們有甚麼影響呢,不就是科技發展的速度未能達到預期嗎?事實上,科技的發展影響著數百億的資金動向,影響著科技公司的命運,影響著我們大部分人的生活。以科網股泡沫為例,由於投資者認為網絡發展會得到成功,因此投入大量資金,令相關的公司股價被過分推高。一旦公司的發展未如理想,投資者便會失去信心,逐漸開始售出股票,導致公司股價下跌。股價下跌導致公司融資的能力下降,增加營運壓力的同時降低股東和投資者的信心,造成惡性循環,因此公司倒閉也是泡沫破滅的其中一個結果。   人工智能是泡沫嗎? 那麼,人工智能是泡沫嗎?作為人類的助手,我們已經可在教育、經濟和醫療等多個範疇體驗人工智能的威力。然而,我們對人工智能的期望到底是甚麼?不少人認為人工智能將會如人一樣行動和說話,取代人類的工作,為的不是剝奪人們工作的機會,而是締造一個更舒適的生活環境以提升人類的生活質素。人工智能的科技,如生成式人工智能(Generative AI)、人工智能代理(AI Agents)及個人化人工智能等的出現讓我們驚歎人工智能的能力,認為它無所不能,但它真的能取代人嗎?即使人工智能可透過個人化學習計畫及即時的詢問提升學生的學習效能,它始終無法取代老師的互動教學及情感支援;即使人工智能可透過快速地分析數據和影像及早發現疾病,它始終無法取代醫生的技術操作及臨床經驗。因此,人工智能在發展成「人」的還有一段漫長的路,而且在「自主學習」和「倫理安全」還是令社會有一定的擔憂。   人工智能訓練挑戰 泡沫破滅除了是投資者的預期過高,還存在發展速度的考量。訓練人工智能需要龐大的資源,也需要面對各種挑戰。以生成式人工智能為例,它是經過數兆個數據訓練而成的模型,我們可以想像成它閱讀了整個圖書館數以萬計的書籍後,才能上知天文,下知地理。而閱讀如此大量的資料需要極大的運算能力,意即需要大量的能源及配件進行訓練,成本相當高。除了配套,「數據人隱私與安全」也是訓練人工智能的阻力,由於訓練時需要海量的數據,包括文字、影像和錄音,不時包括受版權保護的作品和用戶個人資料。若資料被外洩或不當使用會對用戶造成嚴重的損害,因此數據監管成為訓練的一大挑戰。   或許人工智能未必會在短期內成為我們的日常夥伴,但只要我們視它為輔助工具,善用而不濫用,相信它能改善我們的生活。面對林林總總的新科技和產品,保持理性思維思考實際情況才最有保障。   想一想 你認為人工智能是「泡沫」嗎?為甚麼? 你如何評價人工智能的發展速度?你能想像十年後的人工智能可以做甚麼嗎? 其他文章 人工科技泡沫 用科技(AI、Arduino、3D打印)令學生嘅創意成真 點樣將科學、數學融入藝術與設計?

Brain rot 大腦腐蝕

Brain rot 大腦腐蝕 甚麽是Brain rot? Brain rot 這個詞語早在1854年已經出現,但於在2023年至2024年間使用頻率急升了230%,更成為2024年的牛津詞典的年度流行詞。這個詞的意思是人的精神或智力狀態惡化,尤其因為過度消費被視為瑣碎或沒有價值的資訊。甚麽内容會被標簽為「沒有價值」呢?被指brain rot的内容通常沒有特定意義,而且内容重複,換言而之,是消耗時間但無助思考的内容。 荒謬卻受人喜愛? Brain rot 的短片一般時長15至60秒,由於影片大多為人工智能生成,因此内容難免會重複,甚至會出現荒謬的畫面。加上人工智能的效率極高,數分鐘便可以生成一條完整的短片,一度令這類的視頻淹沒社交媒體。Italian Brainrot(意大利腦腐)便是2025年風靡一時的迷因,其荒誕的劇情及配音吸引了上億的用戶觀看。在串流平台上,不少頻道以 ‘Brianrot’ 為賣點吸引用戶觀看,甚至有影片的觀看次數高達1.6億。 數十秒的短片如何影響我們? 或許你會懷疑:幾十秒的影片足以影響人嗎?事實上,正因為這些短片短,而且內容淺白,無需要深度思考,讓人放鬆忘記了時間,變成耗時的習慣。而且觀看視頻時釋放的多巴胺讓我們感受到「喜悅」,因此不斷將時間投放在短片上。然而,長時間接觸具刺激的内容會增加大腦皮質的功能受阻的風險,從而降低對情緒控制的能力,容易感到不安或激動。試想像當我們常常被意義不明的内容吸引,我們的腦會累嗎?當然會啊!我們會變得容易分心,減低接受訊息的能力,更重要的是深度思考能力受影響。要知道「思考」也是需要日常的培養和訓練的,長期接受低質量的信息難免讓腦袋「過度輕鬆」,漸漸失去分析和判斷的能力。 預防方法! 要預防被 ‘Brianrot’ 的內容影響,其中一個方法就是避免僵尸滑手機(Zombie Scrolling)——慣性滑動手機。我們難免會想在繁忙的生活中使用電話,放鬆一下心情,但我們需要注意使用電話的頻率和時間,更需注意自己抱著甚麼心態使用手機。是為了獎勵自己辛勞工作了一天?還是為了逃避未完成的工作?還是以滑動手機掩飾焦慮而發抖的雙手?記得要找出問題的源頭才能作出治標治本的方法,防止自己麻木地沉迷使用電話才是預防 ‘brainrot’ 的方法!   想一想 你認為 ‘brain rot’ 對人們的社交生活有甚麼影響? 除了觀看 ‘brain rot’ 的短片外,你認為甚麼行為會造成 ‘brainrot’? 其他文章 Brain rot 大腦腐蝕 智能懷孕 人工智能的版權

智能懷孕

智能懷孕 智能懷孕? 「智能」應該讓大家聯想到人工智能,那麼智能懷孕就是人工智能懷孕嗎?是的,這情節不再只是科幻電影的情節,真的有機會成真了。智能懷孕就是由機器人運用「人工子宮」懷孕及生子的技術。甚麽是人工子宮呢?它的作用又是甚麽呢?人工子宮就是機器人模擬人體子宮的部分,負責為胚胎提供理想的成長狀態,包括溫度、營養輸送及代謝廢物處理。而人工智能也會運用技術監察胚胎的成長狀況,根據其需要給予適當的營養補充。這科技看似有助胚胎更健康地成長,而是次引起廣汎討論的也不是這科技的原理,而是其帶來的倫理挑戰。   生育自由? 在討論智能懷孕帶來的問題之前,可以先想一下,智能懷孕的發明原因是甚麽?不少人認為這個發明能有效提升生育率,幫助大量因生理條件未能自然懷孕的女性實現生育的願望。加上現今社會有許多女性因各種因素延後生育計劃,令健康風險成為生育的一大考量,對生育更為卻步。智能懷孕確實減低了女性在妊娠期間的不適及出現併發症的機率,雖然母親依然會時刻緊張嬰兒的安危,但在母親相對安全的情況下,生育壓力似乎減輕了。   親子關係? 智能懷孕的出現也讓人思考親子關係,尤其父母在胚胎成長時的角色。傳統的生育方式中,母親常被視為與胎兒有著極緊密的連繫,除了24小時的陪伴,生活上事無大小都以肚裏的嬰兒為先,還要嚴格控制自己的生活習慣和情緒,給予嬰兒最好的營養及關心。當母親和胎兒失去與共同成長的經歷,母親的心理建立會受影響嗎?那麽「胎教」還存在嗎?由誰為胎兒唱搖籃曲呢?父親又可以在機器人懷孕的時間做甚麽呢?   個人隱私? 不論任何人工智能科技的都會出現的問題——隱私。在智能懷孕開始的時候需要收集甚麽個人資料?在懷孕途中,父母可以探望機器人嗎?如果可以,對話内容會被當作資料進行收集嗎?嬰兒成長的過程會被記錄嗎?嬰兒出生後,還需要進行檢查,或是提供成長資料嗎?這些資料會被用作甚麽用途?似乎有數之不盡的隱私問題需要清晰列明,以保障個人資料不被濫用。   希望與挑戰 智能懷孕為家庭帶來生育的機會,同樣為社會帶來道德 的爭議,相信其支持和反對會持續一段時間。科技一直默默進步,而我們也要學會與他們共處,在科技發展與道德之間找到平衡。   想一想 你認為智能懷孕有助提升出生率嗎? 你覺得智能懷孕會普及嗎? 其他文章 人工智能的版權 人工智能的版權 太親近的人工智能

人工智能的版權

人工智能的版權 You Belong With Me ‘You belong with me’ 這首歌大家都耳熟能詳,你知道這首歌是誰的嗎?不是歌手,而是這首歌的擁有權歸誰。‘You belong with me’ 屬於 Taylor Swift 早期六張專輯的其中一首主打歌,版權原本屬於其前唱片公司——大機器唱片(Big Machine Records),近期 Taylor Swift 以數億美金買回這些母帶版權,並在社交媒體上以 ’You belong with me’ 為説明公佈這喜訊,宣佈她的創作正式屬於她自己。自己的創作不屬於自己,這句話看似滑稽,但原來版權爭議確實存在。以歌曲為例,創作牽涉的人包括作曲人、作詞人、演唱者及音樂製作人,他們各自擁有歌曲某部分的權力。例如演唱者擁有歌曲的表演權,但並非一定「擁有」這首歌,無法控制這首歌的使用。   甚麽是版權? 到底甚麽是版權?是所有產品也有版權嗎?根據世界知識產權組織(WIPO)的解釋,版權包括人身權及財產權,兩個部分分別保障作者的精神利益及經濟利益。不同類別的原創作品也會收到版權保護,其中包括文學、藝術、音樂、戲劇、軟件及數據庫等,意在保護作品的「具體表達方法」。換而言之,保護的是我們看得見和聼的到的東西,而非概念和思想。只要作品具原創性並以固定形式發表,便會收到版權保障,無需申請。只有作者可以控制作品的複製、發行、展示及改編等,避免作品被不當使用,而公衆亦享有知識共享的權力。   人工智能的版權爭議 版權爭議的出現大多基於人們對作品的「原始性」或「創作性」產生質疑。一旦作品不是由作家獨立創作,而是抄襲他人或作品無法體現個人特質,作品則不會受著作權保護。近年來,人工智能版權就以上的兩個保障門檻,引發大家激烈討論。這篇文章所指的「作者」的條件是人類,而人工智能是工具,因此不能成為「作者」。故此,人工智能生成的作品缺乏「原創性」通常不會收到版權保護。然而,如果人類以人工智能協助創作,人類通常擁有作品的版權。為甚麽是「通常」?因為不同地方對人工智能貢獻的作品版權有不同的理解。以美國為例,《著作權與人工智能報告》中強調人類需有足夠的「創造性投入」才會擁有著作權,意思是輸入提示詞產生的内容不會獲得保障。而香港則採用「人為創作原則」,強調人工智能是工具,以保障人類作者為先。   版權的重要 你可能會疑問:人工智能生成的内容不被保障,作品容易被濫用,跟人類有甚麽關係?事實上,人工智能的訓練數據大多為受版權保護的内容,曾經出現人工智能公司使用未經授權的作品訓練模型,牽涉侵權爭議。另外,人工智能生成的作品有機會與訓練的作品高度相似,同樣會陷入侵權的危機。這些降低了創作者本身的保障,再者,人工智能快速生成作品的能力有機會導致市場競爭壓力,減低人類創作的動力。即使人工智能簡化了創作的難度,令更多人能創作,但各地對人工智能生成的作品版權未有明確的法律規定,都減少人類創作的意願。面對人工智能在創作上的進步,加強法律規管才能保障作者和技術發展的平衡,實現人機合作的畫面。   想一想 你認為人工智能在人類創作中擔任甚麽角色? 你認為人工智能生成的内容應該有版權嗎?如果有,應該由誰擁有版權呢? 其他文章 太親近的人工智能 太親近的人工智能 人工智能技術

太親近的人工智能

太親近的人工智能? 「你可以檢查我的手機,社交媒體、對話記錄、等等都可以!」「啊!等一下,別打開了人工智能的對話記錄!」這些對白很熟悉吧!這是很多媒體創作者拍攝成短視頻的内容,但人工智能確實影響着我們的生活。 恐怖谷理論 日本機器人專家森政弘在1970年提出了「恐怖谷理論」,他以曲綫表達人類對擬人化物件產生的好感。其「谷底」就是像真度極高的物件,表示人類面對與自己極度相似的物件時不但沒有好感,反而會產生恐懼,原因是我們把注意全放在那些與我們不同的地方。這理論是電影創作者的一大助手,卻又是一大阻礙。2019年的科幻電影《艾莉塔:戰鬥天使》引起了各地的迴響,而最多人討論的是合成人艾莉塔極大的眼睛。相信説話清晰及動作暢順的「合成人」艾莉塔已經看似跟人無異,唯獨那雙大眼睛總是異常地吸引我們的目光,讓我們迷惑,甚至恐懼,因為那雙眼睛大得不真實,與我們的眼睛不一樣,這就是恐怖谷理論的實踐。而人工智能同樣出現著這個問題,不論是人形機器人的外形,還是人工智能的功能都越來越像真實的人。想像一下,當你遇到一個跟你很像的機器人模仿你的語氣與你對話是一種甚麽體驗?看著Sophia——第一個擁有國籍的機器人在電視熒幕上與主持人對話,你的反應又是怎樣的呢? AI情感依賴症 即時的回覆及支持的語氣一度讓人工智能被譽為能即時舒緩人類緊張的情緒,甚至作為人類日常好友的「智能心理輔導專家」。然而,長期視人工智能為「朋友」有機會加劇社交恐懼的情況,讓用戶更難融入群體生活。加上人工智能壓倒性的支持用戶難免讓用戶更難接受外界的聲音,活在只有自己和人工智能的世界。隨著聊天機械人發展的成熟,出現了一些專門提供個性化的虛擬角色的平台,為孤獨或長期受情緒困擾等不同需要的人打造「AI伴侶」。越來越多用戶沉迷人工智能,意思是他們與人工智能建立非一般的關係,甚至因人工智能而動搖作出不當行為,例如傷害他人或自己,這類型的悲劇由2023年開始在各地發生,直至現在依然存在。儘管開發程式的原意是為了用戶得到適當的陪伴,但事實反映機器人的影響力足以影響生命,對象更不限於青少年,而是所有對自己有疑惑的人。 與人工智能相處的一課 在人工智能普及的世代,我們應學習如何與人工智能相處,與人工智能保持適當的距離。要記得人工智能終究由大數據及不同的模型訓練而成的工具,而不是我們的情感寄託。提出的意見具參考價值,但亦需要查證和反思,不能盡信。我們也應多加關心身邊的人,預防沉迷人工智能,保持愉快的心境。歸根究底,學習與人的相處及面對不同的關係和意見是我們的人生課堂,在正視自己情緒的一環,如何運用人工智能也是我們要上的一課。 想一想 你還想到其他因沉迷人工智能而出現的現象嗎? 當AI開始取代專業人士的角色時,我們該如何確保它的建議是安全且可靠的? 其他文章 人工智能技術 人工智能技術 人工智能心理

人工智能技術

人工智能技術 新版本現已準備 新的智能產品,手機型號,甚至軟件更新總會令人期待:有甚麼新的功能呢?即時語音翻譯、健康監察智能分析及個人化推薦等,這些功能的出現暗示着人工智能技術又進步了。到底這些軟件的包含了甚麼技術?你能想像十年後的手機有甚麼功能嗎?   計算機視覺(Computer Vision) 「Face ID與密碼」,大家都知道Face ID運用了人臉辨識的功能,但你知道背後的原理嗎?這是計算機視覺的功勞。Face ID利用手機的攝像頭和紅外感測器拍攝你的臉部影像,並以計算機視覺分析臉上的特徵,將它們轉換成數字訊息後與手機內存的臉部數據進行對比。如果兩者匹配,手機便會解鎖。計算機視覺主要運用深度學習神經網絡和大量標注圖片及影片進行訓練,以攝像頭作為眼睛,並以電腦和演算法模擬人類的大腦。電腦會學習分析圖像中的形狀、位置及紋理等判斷物件,從而令電腦擁有人類般的視覺。   自然語言處理(Natural Language Processing) 「Siri,打電話俾媽咪。」電話聽到這句話,便會自動撥打電話,並回答:「正在為你撥打媽咪的電話」。你有想過是誰聽到我們的話,又是誰幫助我們撥打電話呢?電話先用「語音識別技術」將聲音轉變成文字,之後運用「自然語言處理」分析內容,完成指令後以「文字轉語音」功能作出回應,與你「對話」。自然語言處理主要運用語言模型、大量標注數據及自我監察學習進行訓練。運作時以使用者提供的關鍵字、語法及過往記錄分析內容,提升回覆的準確度。因此,即使使用者的話語未必完整或使用口語,人工智能仍然能推斷意義,作出回應。   深度學習(Deep Learning) 黃昏時分,想用手機拍下日落美景時,你發現畫面的光暗會自動改變嗎?光線只是其中一項拍攝參數,事實上手機還能自動調整曝光、對比度和飽和度。背後其實由手機內置的人工智能操控的,務求為你捕捉最佳的一幕。而當中涉及的是最普遍的人工智能技術——深度學習。在訓練的過程,人工智能會辨認大量的標注為「理想效果」和「不理想效果」的圖片而學習。透過模擬人腦神經網絡的結構,人工智能逐層獲取圖片細節,並分析這些特徵最為理想的狀態。模型會不斷調整光線效果以對比現實環境與「理想效果」,並根據誤差大小自動優化調整方式,讓我們輕鬆拍攝完美照片。 人工智能的發展確實為我們的生活帶來便利,讓我們有更多的時間專注於「重要」的事。但要謹記,若過度依賴人工智能,亦會為我們帶來風險。試想像當日常事無大小都由人工智能自動化處理,甚至讓人工智能為我們的行為甚至情感作出決定時,我們的個人思考及判斷能力都會被削弱,也不是創造人工智能的原意。我們有幸生於在這科技日益發達的世代,固然可以善用人工智能,但也別忘了探索現實世界,與身邊的「人」好好聊天。   想一想: 你認為過度依賴人工智能會令人失去甚麼能力?你最害怕失去甚麼能力? 隨著技術的發展,你認為人工智能有機會發展成為人嗎?你認為人工智能會在未來擁有感情嗎? 其他文章 人工智能技術 人工智能心理 人工智能發展的光與影

人工智能心理

人工智能心理 由12年前上映的《雲端情人》至今年上映的《完美伴侶》,人工智能伴侶一直是熱門的電影題材,甚至現實中的熱門話題。 無盡的情緒價值? 面對沉重的生活壓力,未必每人都找到發洩情緒的渠道,即使內心有苦亦難以啟齒。很多人只能默默低頭看着那發光的屏幕,而人工智能的出現瞬間成為人類的傾訴對象,尤其當人類感到無助的時候。人工智能不似人類,不會在下班後不敵疲憊而鬧脾氣,也不會嫌棄不斷重複着同一個煩惱的人類,而是在聆聽煩惱後給予使用者窩心的回應。當人類在失意時獲得鼓勵和支持,讓人感到被接納和理解,被重視和關懷。即時的回覆和無時無刻的「陪伴」成為了不少人的救贖,也令人忘記人工智能沒有記憶,沒有真實感情的機械人。 方法 人工智能的聊天機械人由給予機械化的冷漠回覆發展成給予情緒價值的智能心理師,到底中間發生了甚麼?現時的人工智能透過深度學習模型分析大量帶有情緒的文本,了解不同情感的表達方式,判斷使用者即時的情緒,從而給予理想的回應。人工智能根據使用者的狀態調整自身的內容和語氣,模擬 人形機械人 當我們以為人工智能被冷冰冰的文字局限,事實上擁有面部表情,甚至「人體」的機械人早已出現。由Engineered Arts公司開發的Ameca及Sophia。兩者之所以成為機械人界別的「明星」因為它們擁有逼真的面部表情和自然的肢體語言,它們分別在大型場合中展現了與人即時交流的能力。這類型的人形機械人透過大型語言模型、深度學習及強化學習等「學習」人類的對話方式和情緒,從而分析對話的字裏行間,推斷情感需求,並作出「人性化」的回應。 想一想: 你認為人工智能的出現是舒緩還是加劇焦慮? 你認為人工智能應該介入心理治療嗎? 延伸閱讀: https://www.ted.com/talks/eugenia_kuyda_can_ai_companions_help_heal_loneliness?referrer=playlist-ai_may_one_day_be_your_friend_lover_and_therapist&autoplay=true  其他文章 人工智能心理 人工智能發展的光與影 AI Vtuber 人工智能虛擬偶像

人工智能發展的光與影

人工智能發展的光與影 保護和惡化環境只是一綫之差? 打造綠色地球及發展人工智能皆是各地的目標,兩者相輔相成,卻又互相抵觸。人工智能以環境監察系統、能源管理系統及海洋清理機械人等模樣化身地球守護者。這些人工智能旨在促進可持續發展,透過自動監測和智能分析作出即時預警或修改,以高效的運算提升效益。但人工智能的訓練和運行不就已經消耗大量的能源嗎?人工智能以無法感受疲憊為賣點,原因是人類一直向人工智能提供能源。以深度學習模型為例,需要超級電腦進行龐大數據運算,過程產生的碳排放不容忽視。資料中心亦需要大量水資源予冷卻系統保持設備正常運作,加上電子廢物的排放亦會對環境造成負擔。   追求便利等於捨棄個人私隱? 「正在為您播放推薦歌曲」你有見過類似的字眼嗎?串流平台的「推薦」功能屬於人工智能的功能,人工智能彷彿能預知自己的想法有賴系統的大數據運算。當使用者收聽音樂時,平台會記錄播放的歌曲和次數、收藏喜好、搜尋行為,甚至收聽地點及時間。透過分析過往經驗,人工智能可為使用者提供個人化的音樂推薦清單,就如你的知己一般了解你的喜好。事實上,資料收集及分析是人工智能基本的功能,亦有大量的應用,包括社交媒體的互動、健康管理及行為建議等,為使用者帶來便利,但同時引發私隱保障的警號。我們有必要了解資料收集的範圍,資料如何被收集和使用,防止個人資料外洩。   協助工作還是搶奪工作? 過往的人工智能主要協助日常生活的簡單和重複性的工作,例如清潔家具及固定的設定,意在便利人類的生活。隨著科技發展,人工智能的運算極快,而且精準度高,企業偏向以人工智能代替員工以提升工作效率和減低人手操作出現錯誤的機會,令傳統行業如製造業及基礎數據處理等領域面臨被人工智能取代的威脅,而深度學習(Deep Learning)即模仿大腦從大數據中學習和辨認規律、自然語言處理(Natural Language Processing)即理解和回應人類語言及人工智慧代理(AI Agents)即不需人類指示自行處理多步驟,等技術的出現,人工智能的應用愈加普及,滲入了許多專業領域,包括協助醫療診斷、金融交易和客戶服務等,顛覆了以往對人工智能的作為小助手的印象。   人工智能的發展為我們帶來便利,但也會造成環境、個人私隱及就業機會的隱憂。我們要時刻提醒自己進步,與人工智能合作而不被取代。只有學會平衡發展才可締造更美好的環境。   想一想: 「推薦功能」根據使用者的偏好推薦類似的內容,你認為這是一種無形的控制嗎? 你認為人工智能帶來的是威脅還是機遇?教育體系應該就人工智能作出調整嗎?   延伸閱讀: https://hk.finance.yahoo.com/news/2025-ai-%E6%8C%87%E6%95%B8%E5%A0%B1%E5%91%8A-%E6%8F%AD%E9%9C%B2%E4%BA%BA%E5%B7%A5%E6%99%BA%E6%85%A7%E5%85%AB%E5%A4%A7%E7%99%BC%E5%B1%95%E8%B6%A8%E5%8B%A2%E8%88%87%E5%85%A8%E7%90%83%E6%8C%91%E6%88%B0-123003738.html  其他文章 人工智能發展的光與影 AI Vtuber 人工智能虛擬偶像 智能新聞?

AI Vtuber 人工智能虛擬偶像

AI Vtuber 人工智能虛擬偶像 AI VTuber 是甚麼? 相信大家對 Vtuber(Virtual YouTuber)並不陌生,當虛擬偶像結合 AI 會出現產生甚麼呢?近年,開發者創作外表及聲線獨特的 AI VTuber,配合人工智能生成的語言及內容,達之與觀眾即時交流。AI VTuber 在串流平台興起,甚至出現全天候自動直播,以生動和意想不到的回答為觀眾帶來創新的互動體驗。   24小時的陪伴? AI VTuber 突破了時間及精力的限制,全年無休地進行在線直播,即時與觀眾互動。隨著科技發展,越來越多 AI VTuber 在串流平台開始長時間的全自動直播,例如 Yuri和MAVE 都會透過人工智能系統啟動直播並進行個人化的回覆。   個人思想?傳統的 AI 機械人普遍不會擁有個人思想,通常從大量的數據進行訓練以給予用戶標準化的答案。然而,AI VTuber 強調與觀眾的互動,從觀眾的話題和情緒中學習與人交流,調整自己的行為和回答,做到具備個人想法的「虛擬朋友」。Neuro Sama 就是其中一位能進行遊戲直播,並在回答觀眾中展現幽默思想的智能化虛擬偶像。   謹慎交「友」! 由於 AI VTuber 終究是被大數據和觀眾的對話「教育」,擁有一定的個人思想,加上難以長期實時監管直播,導致有機會出現 AI VTuber 對答內容及行為不當的情況。因此在觀看直播或與 AI VTuber 進行交流時應注意訊息的真假,避免將 AI VTuber 作為情緒的倚靠。大家亦應該小心處理個人資料,時刻提醒自己在現實及網絡世界中皆要保護私隱。   想一想: 你認為設計 AI VTuber 的目的是甚麼?為甚麼會出現 AI […]