📓 第 10 課:盡責(Diligence)
NotebookLM 生成 影片摘要 + 簡報 + 測驗以下內容由 Google NotebookLM 根據課程影片自動生成,作為延伸濃縮學習素材。
📖 回到主課程:AI 素養:框架與基礎
📋 課程概覽
第 10 課:實踐工作場景 3:編碼與技術開發
學習如何善用 AI 輔助程式碼編寫、技術問題排查與開發流程最佳化。
🎬 影片摘要
🎬 NotebookLM 影片摘要
由 Google NotebookLM 根據課程影片自動生成的繁體中文動態摘要。
📝 影片重點整理
第一章:盡責的獨特性——4D 框架中的道德守衛
「盡責(Diligence)」是 4D 框架中最關注「倫理與安全考量」的能力,與其他三個 D 的最大差異在於:它不只問「這樣做有沒有效」,而是問「這樣做有沒有責任感」。它確保 AI 的使用是透明、謹慎且符合個人與社會價值觀的。
第二章:開車的比喻——AI 互動不存在於真空
影片用「開車」來比喻 AI 使用:開車需要遵守交通規則、考慮對其他用路人的影響——AI 互動也一樣,並非存在於真空中,而是會對外部環境、同事、受眾和社會產生廣泛影響。這個比喻提醒我們:使用 AI 是一種帶有社會責任的行為。
第三章:盡責的三個類型
| 類型 | 核心問題 | 實踐重點 |
|---|---|---|
| 創作盡責(Creation) | 我輸入的數據誰擁有?AI 系統的選擇符合我的價值觀嗎? | 選擇前先查閱數據保護政策與組織規定 |
| 透明度盡責(Transparency) | 利害關係人知道 AI 參與了這項工作嗎? | 尊重他人的知情權,告知 AI 在工作中的角色 |
| 部署盡責(Deployment) | AI 生成的內容達到你分享標準嗎?錯誤出現時誰負責? | 分享前核實事實與來源,標準與人類親自撰寫相同 |
第四章:責任主體永遠是人——AI 無法代替你承擔
當 AI 生成的內容出現錯誤,責任歸屬於「分享該內容的使用者」,而非開發公司或 AI 本身。部署盡責的核心原則是:你發布的每一份 AI 輔助內容,都必須達到與你親自創作時相同的專業標準。
第五章:法律持續演進——保持資訊更新是使用者的責任
AI 的法律與監管框架仍在快速變化中,盡責要求使用者主動持續關注並了解最新規定——不能只依賴 AI 內建的過濾機制,也不能等法律完全定案才採取行動。
影片結語金句:
「使用 AI 就像開車:你不只要開得快,還要開得安全、對他人負責。盡責,是讓 AI 成為社會正向力量的關鍵。」
📊 簡報概覽
🧪 延伸測驗
🧪 互動學習
透過以下測驗檢測你對課程內容的理解程度。
在 AI 流利度(AI Fluency)框架中,「盡職」(Diligence)職能與其他三項職能的主要區別在於它更關注什麼?
影片中將與 AI 協作比作「開車」,這主要是為了說明什麼概念?
當您在思考「誰擁有我現在輸入的數據?」時,您正在實踐哪一種盡職行為?
在專業環境中,如果您將 AI 協助撰寫的部分告知同事,這符合以下哪項職能?
根據「部署盡職」(Deployment Diligence)的要求,當 AI 生成的內容出現錯誤時,誰應負最終責任?
為了落實部署盡職,一名記者在使用 AI 輔助撰稿後,應該採取什麼行動?
在處理敏感的公司資訊前,創作盡職要求我們首先執行哪項動作?
關於透明度盡職,以下哪項描述體現了其對於「信任」的價值?
由於 AI 的法律與監管框架仍在不斷演變,盡職職能建議我們應該怎麼做?
下列哪一項不是「盡職」職能旨在實現的目標?









