Skip to content

📓 第 10 課:盡責(Diligence)

NotebookLM 生成 影片摘要 + 簡報 + 測驗

以下內容由 Google NotebookLM 根據課程影片自動生成,作為延伸濃縮學習素材。
📖 回到主課程:AI 素養:框架與基礎

📋 課程概覽

第 10 課:實踐工作場景 3:編碼與技術開發

學習如何善用 AI 輔助程式碼編寫、技術問題排查與開發流程最佳化。


🎬 影片摘要

🎬 NotebookLM 影片摘要

由 Google NotebookLM 根據課程影片自動生成的繁體中文動態摘要。

0:00 / 0:001.00x

📝 影片重點整理

第一章:盡責的獨特性——4D 框架中的道德守衛

「盡責(Diligence)」是 4D 框架中最關注「倫理與安全考量」的能力,與其他三個 D 的最大差異在於:它不只問「這樣做有沒有效」,而是問「這樣做有沒有責任感」。它確保 AI 的使用是透明、謹慎且符合個人與社會價值觀的。

第二章:開車的比喻——AI 互動不存在於真空

影片用「開車」來比喻 AI 使用:開車需要遵守交通規則、考慮對其他用路人的影響——AI 互動也一樣,並非存在於真空中,而是會對外部環境、同事、受眾和社會產生廣泛影響。這個比喻提醒我們:使用 AI 是一種帶有社會責任的行為。

第三章:盡責的三個類型

類型核心問題實踐重點
創作盡責(Creation)我輸入的數據誰擁有?AI 系統的選擇符合我的價值觀嗎?選擇前先查閱數據保護政策與組織規定
透明度盡責(Transparency)利害關係人知道 AI 參與了這項工作嗎?尊重他人的知情權,告知 AI 在工作中的角色
部署盡責(Deployment)AI 生成的內容達到你分享標準嗎?錯誤出現時誰負責?分享前核實事實與來源,標準與人類親自撰寫相同

第四章:責任主體永遠是人——AI 無法代替你承擔

當 AI 生成的內容出現錯誤,責任歸屬於「分享該內容的使用者」,而非開發公司或 AI 本身。部署盡責的核心原則是:你發布的每一份 AI 輔助內容,都必須達到與你親自創作時相同的專業標準。

第五章:法律持續演進——保持資訊更新是使用者的責任

AI 的法律與監管框架仍在快速變化中,盡責要求使用者主動持續關注並了解最新規定——不能只依賴 AI 內建的過濾機制,也不能等法律完全定案才採取行動。

影片結語金句

「使用 AI 就像開車:你不只要開得快,還要開得安全、對他人負責。盡責,是讓 AI 成為社會正向力量的關鍵。」


📊 簡報概覽

1 / 10
投影片 01投影片 02投影片 03投影片 04投影片 05投影片 06投影片 07投影片 08投影片 09投影片 10
投影片 01

🧪 延伸測驗

🧪 互動學習

透過以下測驗檢測你對課程內容的理解程度。

在 AI 流利度(AI Fluency)框架中,「盡職」(Diligence)職能與其他三項職能的主要區別在於它更關注什麼?

影片中將與 AI 協作比作「開車」,這主要是為了說明什麼概念?

當您在思考「誰擁有我現在輸入的數據?」時,您正在實踐哪一種盡職行為?

在專業環境中,如果您將 AI 協助撰寫的部分告知同事,這符合以下哪項職能?

根據「部署盡職」(Deployment Diligence)的要求,當 AI 生成的內容出現錯誤時,誰應負最終責任?

為了落實部署盡職,一名記者在使用 AI 輔助撰稿後,應該採取什麼行動?

在處理敏感的公司資訊前,創作盡職要求我們首先執行哪項動作?

關於透明度盡職,以下哪項描述體現了其對於「信任」的價值?

由於 AI 的法律與監管框架仍在不斷演變,盡職職能建議我們應該怎麼做?

下列哪一項不是「盡職」職能旨在實現的目標?

本網站為非官方中文學習指南,內容整理自 Anthropic Academy