人工智能的善惡

人工智能的發展
人工智能由人類日常的得力助手發展成令人類擔心的工具,到底發生了甚麼事?設計人工智能的最初目的是為了讓電腦模仿人類進行思考,從而擁有學習和解決問題的能力。科學家「教導」人工智能邏輯推斷和演算法,找出最佳答案,因此出現早期人類與人工智能下棋的畫面。其後,人工智能技能愈加成熟,出現語音及圖像識別功能。人工智能現擅於「深度學習」,以多層神經網絡分析大數據,並進行預測,甚至自行創作和學習。正因為人工智能擁有「自行」判斷和回答的能力,人類開始擔心人工智能會出現數據處理失誤和失控的現象。
邪惡的人工智能?
雖然人工智能不受情緒和疲憊影響,有助減少人為錯誤,但人工智能確實存在出錯的機會。即使開發自行駕駛的原意是為了減少人類因分心或酒駕等原因造成的交通意外,並透過自動駕駛系統調整駕駛路線和行使速度,令道路暢順及提升能源使用效率,汽車系統曾因失誤未有啟用安全措施導致嚴重交通意外。事實上,還有其他人工智能的失誤,例如金融算法故障及醫療系統失誤,造成財產損失、倫理問題和人身傷害等嚴重後果。
邪惡的人?
為什麼人工智能會出錯呢?是人工智能鬧脾氣嗎?大部分的人工智能都是從人類所提供的數據中「學習」,並根據人類所編寫的程式給予相應的回應。訓練人工智能需要數以百萬計的數據,一旦訓練數據出現偏見或不完整的内容,人工智能的結果便會與人的普遍認知有偏差。另外,模型的設計也會影響人工智能的學習和推斷能力,並非所有人工智能都能解答所有類型的疑問,因此出現結果是準的情況。因此,訓練人工智能時需加入多元的數據及持續的監察,避免單一角度的數據壟斷,同時設計模型時應該「教導」人工智能誠實回答不確定的答案。
善良的人 善良的人工智能
由於人工智能的「善惡」由人類賦予,我們有能力創造「善良」的人工智能。在設計人工智能的過程加入道德原則,例如利用全面的資料庫進行訓練以達到公平的,亦可要求人工智能決策時優先考慮人類的權益。開發者亦需定期更新訓練數據及監察人工智能的結果是否符合標準以評估其表現,亦可加入舉報機制以便使用者提出意見以進行改善。使用者也需學習善用人工智能,避免向人工智能輸入意識不良的資訊,影響其學習過程。
想一想:
- 人類如果不當使用人工智能,責任應該由誰承擔?是人工智能的開發者,使用者還是人工智能本身?
- 你認為人工智能應該參與,例如招聘系統篩選、醫療資源分配及金融信貸評分等的倫理判斷嗎?
延伸閱讀:
- https://hk.news.yahoo.com/gm-ends-support-for-cruise-robotaxis-090147818.html?guccounter=1&guce_referrer=aHR0cHM6Ly93d3cuZ29vZ2xlLmNvbS8&guce_referrer_sig=AQAAACkPRcxo9lJ7QDi-Q7Y2skR6zWPc30o2JmsEe7p0YCN74Yqposz-Z1Qg3nTDcp5w45O8S1B9xPir2p8UAZBE1tAYCcrq8GgeZ8FNpSTWEeDl3C4fHIqjvSMq7_LGAAzGopNvr2x1g8sOJOz8Y3PT0uxiLK7b7HP4miI_703EfI9C