AI ChatGPT- NVidia CEO Talk
NotebookLM 支援上傳 PDF、Google 文件、純文字等多種格式,系統會自動分析內容,建立專屬知識基礎。
整理各類產業報告(如 IDC、Gartner)、競爭對手網站內容、新聞報導、採訪紀錄等,轉存為 Google 文件或 PDF 上傳。
第三步:開始與 AI 對話、摘要與語音 Podcast 導讀
上傳完資料,即可向 NotebookLM 提問、要求生成摘要、常見問題,甚至啟用 Audio Overview 功能,用 podcast 形式「聽」懂資料重點。需特別注意 NotebookLM 只會保留左側上傳資料,但不會保留你中間對話框的提問,若想保留提問記事,記得點選小圖釘「儲存記事」。
輸入問題如「主要競爭者提供的解決方案有何異同?」「企業導入雲端服務的痛點為何?」「市場成長最快的子產業是什麼?」NotebookLM 會依據資料內容提供摘要與引用出處。若開通 Audio Overview 功能,能將調查內容的重點摘要轉為語音導讀。
NotebookLM 適合誰?5 大企業應用場景與指令分享
1. 項目管理與團隊協作
NotebookLM 可集中管理各類專案資料,並將會議紀錄、簡報內容轉化為結構化摘要與行動項目。企業內部透過共享筆記本,能達到即時協作、追蹤進度並產出利害關係人報告。
實用 Prompt 範例
「請總結 PRD 文件中的主要功能點,並列出負責人與時程表。」
「找出週報中所有標記為『延遲』的任務與原因。」
2. 員工入職與培訓
將員工手冊、培訓教材與常見問題整合至 NotebookLM,讓新進同仁可透過 AI 問答快速掌握重點,並生成音訊導讀加速熟悉流程。
實用 Prompt 範例
「根據員工手冊與產品介紹文件,製作新進人員 FAQ 文件。」
「請用導師風格講解產品流程,並生成測驗題 5 題。」
3. 市場研究與策略規劃
將市場報告、競品資料與內部銷售數據上傳 NotebookLM,能快速完成趨勢摘要、策略評估與整合建議。同時,NotebookLM 也能搜尋與整合外部的公開報告和文章,藉由這些內外部資料,生成全面的年度計畫與產品定位。
實用 Prompt 範例
「比較三份 Agent 市場報告中的成長趨勢與主要競爭者分析。」
「請以 SWOT 分析方式整理文件中的關鍵商機與威脅。」
4. 財務與營運分析
財務部門可以上傳 PDF 格式的財務報表,NotebookLM 可解析財報、輸出指標摘要與異常項目,並支援表格輸出與語音導讀,協助高層在移動中快速決策。
實用 Prompt 範例
「總結這份財報的營收趨勢與成本異常點,並以表格輸出。」
「請計算近三年毛利率變化,並提出財務長可能的關注問題。」
5. 客戶提案與銷售支援
銷售團隊可以整合過往成功案例、客戶需求文件,NotebookLM 即可協助快速產出提案草稿,強化銷售團隊在簡報與談判中的內容支援。
實用 Prompt 範例
「請根據這份客戶需求文件與成功案例,生成初步提案內容。」
「為這個客戶撰寫三個不同角度的價值主張,強調創新與 ROI。」
NotebookLM 資料整理技巧教學:6 種高效指令設計法
想讓 NotebookLM 給出更深入、有結構又具參考價值的回答?關鍵在於你的提問方式。以下整理六種高效提問技巧,幫助你提升互動品質
技巧一、結構化、多層次提問
將複雜問題拆解為多層次子題,並指定輸出結構,例如:「請從歷史案例、研究方法、倫理層面分析主題,並依摘要 → 案例 → 現況 → 展望的格式回答。」
技巧二、應用費曼技巧(Feynman Technique) 提問
請求 NotebookLM 用簡單白話解釋概念,指出知識盲點,並輔以比喻、練習題與心智圖,加強理解。
技巧三、多用分析與比較型問題
比較、優缺點、關聯性等問題能引導 NotebookLM 給出更深入的分析。例如:「比較【文件A】與【文件B】的異同」、「列出文件中提出的三種解決方案及其優缺點」。
技巧四、明確指定摘要重點
明確要求摘要聚焦於重點、趨勢或可行建議。範例:「請摘要本報告的三大趨勢與建議」,或「列出此文件關於市場機會的五個關鍵點」。
技巧五、建立追問循環
根據先前回答進行深化提問,如:「這些趨勢對亞太市場的影響是什麼?」「可預見的新風險有哪些?」
技巧六、創意與多樣化輸出
請求 NotebookLM 將內容轉換為實用或具表現力的格式,例如:生成提案草稿、故事架構、PowerPoint 大綱、心智圖、流程圖,或使用 Audio Overview 轉為語音 Podcast 摘要,適合內容創作、簡報製作與教學應用。
✦延伸閱讀:生成式AI 如何設計高效的提示工程?6 大操作要點與常見錯誤
NotebookLM 與其他 AI 筆記研究工具比較:ChatGPT、Notion AI
隨著生成式 AI 工具快速演進,NotebookLM 結合「AI 筆記整理」與「研究輔助」兩大功能,成為許多知識工作者的新選擇。相較於傳統筆記工具如 Notion,或新興 AI 對話型研究工具如 ChatGPT Deep Research,NotebookLM 在資料引用、邏輯推理與多格式輸出上各有優勢。本段將比較三者在應用場景上的特色與限制
AI 筆記與研究工具 NotebookLM
NotebookLM 結合 AI 筆記整理與研究分析功能,支援上傳多種文件格式,自動生成摘要、問答與 Podcast 等多模態輸出,並透過引用來源確保回應準確,特別適合需要精準理解與資料整合的專業場景。
NotebookLM 應用場景
學術研究:上傳論文或課程資料,生成摘要、問答或 Podcast,適合文獻回顧。
教育:教師製作教案,學生複習教材,Podcast 提升學習體驗。
內容創作:將資料轉為音訊或視覺化內容,降低創作門檻。
NotebookLM 優勢:
精準性:Source-grounding 確保回答僅基於上傳資料,無幻覺,適合學術研究。
多模態輸出:支援中文 Podcast、心智圖、視覺化報告,創作門檻低。
免費:功能強大,無訂閱成本,DeepResearch 無限制。
Discover Sources:自動搜集相關網頁,增強研究效率。
NotebookLM 限制:
需手動上傳資料,無法直接處理雲端資料庫
對話記錄不自動保存,編輯功能陽春(無 Markdown)。
創意生成能力較弱,專注資料處理。
AI 研究工具 ChatGPT Deep Research
ChatGPT Deep Research 主打自動蒐集網頁並生成結構化報告,適合市場趨勢與政策研究,支援 PDF 導出與後續問答,是高效率探索未知領域的利器。
ChatGPT Deep Research 應用場景
市場與政策研究:自動搜集網頁,生成趨勢報告,適合企業分析。
快速探索:對新領域(如電動車市場)生成結構化報告,無需自行收集資料。
專業報告:導出 PDF 分享給團隊,含案例與表格。
ChatGPT Deep Research 優勢
自主研究:自動搜集網頁,生成結構化報告,適合快速探索未知領域。
專業報告:支援 PDF 導出,含引用與表格,適合企業與分享。
靈活性:適用於市場分析、政策研究、消費者問題,支援後續問答精煉。
高上限:Pro 訂閱每月 250 次查詢,適合重度用戶。
ChatGPT Deep Research 限制
付費門檻:完整功能需訂閱,免費版僅 5 次輕量查詢。
準確性風險:可能引用不可靠來源,需人工驗證(SimpleQA 得分 44.8%)。
無多模態輸出:僅限文字,無音訊或視覺化功能。
✦延伸閱讀:Deep Research 是什麼?比較OpenAI、Google 深度研究的 AI Agent
Vibe Coding 學習地圖】用實戰帶你搞懂 Gemini、Google AI Studio、Antigravity 的使用情境 林鼎淵 https://www.youtube.com/watch?v=2hbYCe_E5aU&t=1s
My Vibe Coding example of 1 page webpage
Better not use API key from Google It will cost you too much.
Vibe Coding 學習地圖】用實戰帶你搞懂 Gemini、Google AI Studio、Antigravity 的使用情境 林鼎淵 https://www.youtube.com/watch?v=2hbYCe_E5aU&t=1s
工程師下班有約 觀看次數:76,883次 2025年12月19日
Vibe Coding 教學
❝Vibe Coding 工具越多,反而更不敢開始?❞
你的痛點我懂!這隻影片直接給你一張「學習地圖」。
用實戰 Demo 帶你搞懂:
Gemini(入門)→ Google AI Studio(進階)→ Antigravity(專業)
從生成作品、版本控制、到 GitHub Pages 免費上線,一次走完!
看完你會直接拿到:
① 3 種工具的「使用情境」與「新手常踩的 AI 陷阱」
② Gemini Canvas 生成網頁 → 用 Google Sites 免費部署
③ Google AI Studio 做出前端專案 → 存 GitHub 版控 → 用 Antigravity 完善專案 → GitHub Pages 免費上線
④ 我整理的提示詞架構 + 完整思考路徑(照抄也能做出第一個作品)
📌 延伸資源:
相關指令,大家可以參考我的部落格: / 232b5f89c057
林鼎淵的 FB: / deanlinbao
林鼎淵的 Medium: / dean-lin
《工程師下班有約》書籍資訊: https://www.tenlong.com.tw/prod
AI時代我(們)需要做什麼? 張潔平
1. 新的工作定義
2. 新的練習方法:哪些「1萬小時」是不可省去的?embodied knowledge
3. 判斷和參與,而不是見證與消費
4. 尋找意義、尋找志業
5. 重建生活、重建社群
AI and Human Life - Medium Workshop Reflections from different perspectives
張潔平-「當機器讓人們喪失了經由重複練習來學習的過程,機器就是被濫用了。智慧機器把人類心智的理解活動與反覆的、具啟發性的、親自實作的學習切斷了。」 「當雙手與大腦分離,蒙受其害的是大腦。」 — — 《匠人•創造者的技藝與追求》Richard Sennett
https://medium.com/@ericweichun/生成式ai衝擊工作坊心得-3-18-19-4f646f4750a
張潔平-AI帶來的宗教時刻:我是誰?我為什麼存在?我將走向何方?部分工作可以一人成軍,e.g.繪本
· 當手裡只有錘子的時候,看什麼都是釘子;但具體需求(痛點)是什麼才是關鍵
· AI時代我(們)需要做什麼?
1. 新的工作定義
2. 新的練習方法:哪些「1萬小時」是不可省去的?embodied knowledge
3. 判斷和參與,而不是見證與消費
4. 尋找意義、尋找志業
5. 重建生活、重建社群
「當機器讓人們喪失了經由重複練習來學習的過程,機器就是被濫用了。智慧機器把人類心智的理解活動與反覆的、具啟發性的、親自實作的學習切斷了。」 「當雙手與大腦分離,蒙受其害的是大腦。」 — — 《匠人•創造者的技藝與追求》Richard Sennett
2025 C-LAB年度大展盛大開幕 從語言出發開展多樣的想像與討論 2025.06.05(四)
Quotes:「Sounds of Babel」不只意味著語言的紛雜與多樣化,也隱喻難以溝通、意見分歧跟嘈雜的聲音;而語言的核心更在於如何去承載文化生產的意義與歷史的集體經驗,語言也是我們彼此溝通與建構認同的工具,希望透過展覽讓觀眾理解語言背後的意識形態,以及語言如何展現文化的複雜多元,跟作品產生更深刻的共鳴。
BC comments: AI is making many things including languages and cultures to decompose and restructure. AI 的好與不好都是它的作用 我們是不是只能被動的去接受這些衝擊?!
「AI教父」辛頓最新專訪:沒有什麼人類的能力是AI不能複製的 | 科技 | 鉅亨號 | Anue鉅亨
Quotes: 劃重點
AI推理能力激增,錯誤率大幅下降,正逐步超越人類。
AI掌握的資訊量遠超過任何個體,在多個領域比人更聰明。
醫療、教育等產業即將被AI重塑,革命性改變已在發生。
人類能力沒有「不可複製」的部分,AI終將全面勝任創意、判斷與情感表達。
AI也能類比、學習、調整,甚至展現「情緒」與「意識」式行為。
風險並非AI無法控制,而是「誰擁有控制權」和「誰受益」。
未來不止是失業威脅,更是人類被少數掌控AI者「系統性剝奪」的風險。
source link: 揭秘Google AI逆襲背後的頭號功臣Josh Woodward!同事:或是下一位執行長 | 鉅亨網 - 美股雷達
2025 年下半年,全球 AI 市場版圖發生劇烈震盪。曾經一度顯露疲態的科技巨頭 Google(GOOGL-US) ,憑藉 Gemini 3 Pro 模型與爆紅功能 「Nano Banana」 打了一場漂亮的翻身仗。而這場「起死回生」的逆襲背後,站著一位在 Google 內部聲名顯赫、對外卻極度低調的傳奇人物 Josh Woodward。
Google AI逆襲背後的頭號功臣Josh Woodward。(圖:Josh Woodward Linkedin)
根據《CNBC》報導,2025 年 8 月的一個深夜,Google 數據中心警報頻頻響起,Gemini 應用中新上線的圖像生成功能「Nano Banana」瞬間引爆全球,用戶生成圖片量在短短幾天內突破數十億張,把 Google 伺服器「烤」得冒煙。
Google 被迫緊急限制使用,但這場近乎「失控」的走紅,反而讓公司振奮,因為這代表 Gemini 應用一戰成名,甚至登上蘋果 (AAPL-US) App Store 下載榜首。
值得注意的是,這一切的背後,操盤手正是 Google 內部聲名顯赫、對外低調的產品經理 Josh Woodward。
42 歲的 Woodward 並非矽谷家喻戶曉的名字,但在 Google 內部,他幾乎是傳奇般的存在。
他自 2009 年實習加入 Google,曾參與 Chromebook、Google Pay 及「下個十億用戶(NBU)」計畫的開發。
2025 年 4 月,Google AI 戰線進行關鍵人事調整,Woodward 被提拔為 Gemini 應用負責人,肩負推動 AI 產品創新和領導 Google Labs 雙重任務。
在 OpenAI ChatGPT 風頭正盛、Alphabet 股價下滑的背景下,他帶領團隊開辟新賽道,為 Google 在生成式 AI 領域迎來逆襲。
TPU 快被烤化!Gemini AI 爆款誕生
Woodward 上任後不久,就迎來大顯身手的機會。
原本默默無名的 AI 應用 Gemini,因「Nano Banana」功能一炮而紅。用戶可上傳多張照片,由 AI 生成獨一無二的數位分身。
功能一上線,全球用戶蜂擁而至,伺服器瞬間承受巨大壓力,Google AI 基礎架構負責人 Amin Vahdat 回憶:「我們的 TPU 幾乎要被烤掉了!」
為了穩定運行,團隊暫時限制 Nano Banana 使用量,但這次「小危機」反而凸顯了市場對個性化 AI 創作的強烈需求。
Woodward 敏銳抓住機會,迅速擴容後台算力。結果顯示,Nano Banana 成為 Gemini 飛躍的起點。
到 9 月底,Gemini 應用生成圖像突破 50 億張,月活躍用戶從 3.5 億飆升至 6.5 億,並登上 App Store 下載榜首,超越 ChatGPT。
短短半年,Google 從 AI 跟隨者成功逆襲,Alphabet 公司的股票也隨之止跌回升,到年底累計上漲了 62%,成為當年美股中表現最亮眼的科技巨頭之一。
Woodward 的理性與警覺
Google 這次成功的背後,是 Woodward 的冷靜與遠見。他深知 AI 技術的雙刃性:在推進創新同時,必須避免技術濫用。
今年 11 月,Google 發布大型語言模型 Gemini 3,再次引發行業轟動。
然而,Nano Banana 功能也曾引發爭議:部分生成內容出現種族刻板印象,不過 Woodward 立即要求團隊優化算法,並在內部建立審查與倫理評估機制,確保 AI 創新不損害用戶信任。
他與 DeepMind 執行長 Hassabis 討論後,有意避開容易引發倫理爭議的「AI 情感伴侶」方向,而將 Gemini 定位為提升工作效率的工具。
Google 的考核標準也不再單純追求使用時長,而是衡量每天幫助用戶完成了多少實際任務。
Woodward 深知,生成式 AI 已快速滲透生活各方面,Google 必須在競爭與責任間找到平衡。他告誡團隊:「我們處在技術巨變的關口,必須確保 AI 被用來促進善意,而非造成傷害。」
敢想敢做:Woodward 的創新用人之道
Gemini 應用的成功並非偶然。Woodward 上任前,就在 Google 內部孵化出多款有前景的 AI 產品,其中最知名的,是 AI 筆記助理 NotebookLM。
NotebookLM 最初只是 Google Labs 團隊的一個試驗項目,資深產品經理 Raiza Martin 利用「20% 時間」開發原型 Project Tailwind,讓用戶可上傳文檔、PDF 甚至影片,由 AI 提煉要點並生成摘要。
Woodward 一眼看中這個創意,積極支持團隊打磨產品。
為了突破公司官僚體制,他大膽採取非常規舉措。Woodward 從外部邀請科技作家 Steven Johnson 以訪問學者身份加入,讓工程師與作家共同碰撞創意火花。
Johnson 最終轉為 NotebookLM 全職「創作總監」,為產品提供作家視角的指導。
同時,Woodward 鼓勵團隊直接面向外部用戶社群收集回饋,支持 Raiza 在 Discord 建立測試社群,突破傳統內部封閉測試模式。他一句「讓他們盡情去做(Let them cook)!」,讓團隊有了充分自由。
結果,NotebookLM 在開發早期就吸引大量 AI 愛好者,社群到 2024 年底已超過 20 萬人,成為 Google 史上最活躍的產品用戶社群之一。
2023 年 5 月,Woodward 帶著 NotebookLM 亮相 Google I/O 開發者大會,現場演示幾秒內自動生成文檔摘要和引用來源,贏得滿堂喝彩。隨後 NotebookLM 開放試用,並陸續支持音頻、影片分析,功能更加完善。
Woodward 的用人與制度創新也體現在內部流程上。他在 Google Labs 設立「Block」系統,員工遇到體制障礙可提交工單,由專門團隊協調資源。
NotebookLM 開發期間曾面臨算力不足,他也即時調撥 TPU 資源,確保產品性能。工程師回憶,有了這套系統,團隊得以專注產品研發,不再被繁瑣審批拖累。
NotebookLM 的成功,證明了 Woodward 識人用人與減阻創新的能力,也為 Google 內部創新樹立了典範。
小細節,大作為:Woodward 的用戶至上哲學
Woodward 在領導 Gemini 和 Google Labs 期間,極度重視「細節決定成敗」。
他發起內部計畫「Papercuts(被紙割傷)」,專門收集並快速修復那些影響用戶體驗但不致命的小問題。
例如,有用戶反映在 Gemini 聊天時無法中途切換大模型而不重新開始對話,Woodward 得知後立即催促工程師優化,並在 X 帳號上自豪地宣布:「Papercut 已修復,現在可在對話中途切換模型而無需重新啟動。」用戶紛紛點贊留言,感謝他傾聽和解決小困擾。
Woodward 親自參與一線,用社交媒體直接回答用戶提問、收集回饋,並將真實意見傳給開發團隊改進。
NotebookLM 團隊設計師 Jason 回憶:「Woodward 常帶著社群回饋進會議,提醒我們這才是用戶真正關心的問題。」
他的平易近人也體現在小細節中:當團隊因評論而沮喪,他會誇張地大笑,用爽朗的中西部口音化解緊張,鼓勵大家「走,一起回覆網友!」同事稱他幾乎從不對人發火,威望與人望極高。
前同事甚至半開玩笑說:「照這樣下去,他早晚會成為 Google 執行長。」
Woodward 的用戶至上、細節至上的理念,正是 Gemini 和 NotebookLM 成功的重要因素,也彰顯了他在 Google 內部的領導魅力。
從奧克拉荷馬小鎮少年到 Google 中流砥柱
Josh Woodward 並非典型的「矽谷精英」。他於 1983 年出生於美國奧克拉荷馬州埃德蒙一個普通家庭,自小勤奮好學。
他考入家鄉的俄克拉荷馬大學主修經濟學,2006 年以優異成績畢業,並獲評年度傑出畢業生。大學期間,他對公共事務和全球視野充滿熱情,積極參加各類學生領導力項目。
畢業後,他獲得獎學金前往英國牛津大學攻讀比較政府學,2009 年取得碩士學位,研究聚焦於美國軍事及經濟援助對外國民主進程的影響。
這段經歷讓他對「科技與社會」「力量與責任」等宏大命題早有思考,也影響了他日後在科技領域的決策視角。
2009 年,Woodward 以產品管理實習生身份加入 Google,很快展現出過人的敏銳與領導才能。
他樂於接受挑戰,勇於從零打造新項目。最初十年間,他涉足多個尖端領域:
參與 Chrome 操作系統及首批 Chromebook 筆電開發;
加入下一個 10 億用戶(NBU)計畫,研究並服務印度等地首次上網的海量用戶;
接手 Google Pay 國際化拓展,為數億用戶帶來便捷的移動支付體驗。
這些跨越軟硬件與全球市場的經歷,使他對「技術普惠」有深刻理解,也貫穿在他之後負責的 AI 產品中。
無論 NotebookLM 還是 Gemini,他始終強調為用戶創造真正有用的價值,而非炫技噱頭。
Woodward 還有鮮明個人標籤:酷愛閱讀且樂於分享。他的辦公室與住所總是堆滿書籍,從商業傳記到科幻小說無所不讀。
Google 高層若想找書籍靈感,第一個諮詢的對象往往是他。他保持寫閱讀筆記的習慣,早年在 NBU 團隊每週編發內部簡報,簡潔卻發人深省;即使工作繁忙,他仍每季度給團隊和朋友撰寫「Josh 通信」,分享最新讀書心得。
更重要的是,他將知識活用於決策中。NotebookLM 開發過程中,他曾特意發給團隊成員一篇論文,探討用戶是否能信任 AI 答案,讓工程師意識到,領導關心的不僅是功能實現,更是產品是否贏得用戶信任。
此外,Woodward 還會建議閱讀科幻小說激發想像力,邀請人文學者交流,提醒團隊科技創新不能脫離人文關懷。
這些細節展現了 Woodward 作為領導者的深度與溫度,也為他後續在 Gemini 和 NotebookLM 的成功奠定了基礎。
當人人都能用 AI 寫程式,誰還在意「做對的事」? ── 從一枚「工程師之戒」談起 Yi 姐/極簡創業實驗室 2025/11/28
當人人都能用 AI 寫程式,誰還在意「做對的事」?──從一枚「工程師之戒」談起
Yi 姐/極簡創業實驗室
2025/11/28
當人人都能用 AI 寫程式,誰還在意「做對的事」?──從一枚「工程師之戒」談起
我們每個人,本質上都擁有自己的「工程師之戒」。
Source:
Photo Credit:SeventyFour@Shutterstock
在 AI 普及、人人都能寫程式的時代,我們真的還在意「做對的事」嗎?這篇文章從加拿大工程師手上的「倫理之戒」談起,揭示工程責任與道德抉擇間的掙扎,並反思當技術越來越方便,錯誤又該由誰來承擔?
在加拿大,如果你看到工程師小指上戴著一只金屬戒指,別以為當地人也流行戴尾戒防小人,這個小小的戒指,其實是「工程師之戒」(Engineer’s Ring)。
前幾天,我和加拿大的朋友聊到 Engineer’s Ring 才知道,原來一些當地工程學院的學生,會在畢業季參加一個宣示工程倫理的儀式,並在儀式上收到這枚「工程師之戒」,戴在自己慣用手的小指上。
傳統上這枚金屬戒指是鐵製的,戒身上有 12 個小平面。工程師每次畫設計圖時,手指都會感受到那一點點的不平整,像是在提醒自己──你手上畫的每一條線、做的每一個決定,未來都可能會影響真實世界裡的建築,甚至是人命。
據說,這些稜角會隨著你畫過的設計圖、參加過的專案增加,慢慢被時間磨得越來越平滑。但也聽說現在的工程師之戒不一定都是鐵製,也不一定都有保留這些稜角,所以單靠戒指外觀,其實很難判斷一個人的資歷深淺。
然而,真正的挑戰不在戒指本身,而是當我們投入職場、甚至開始與 AI 共事後,那些看似抽象的「工程倫理」,如何變成每天都在上演的現實考題。
工程師之戒的起源
工程師之戒的起源與發生在魁北克橋的悲劇有關。圖/Junaidirhamadan@Shutterstock
「工程師之戒」的儀式,背後其實跟一場發生在加拿大的悲劇有關。
當年魁北克橋改建時,工程師未針對結構的改動,重新計算橋體的承載力,最後導致變形。那時工人和政府其實都曾在改建過程中,向工程師提出疑慮,但在一連串「應該沒事吧」的輕忽及慢半拍的緊急措施,悲劇終究發生了。當下在電報還來不及發送前,魁北克橋就應聲斷裂,75 名工人因此喪命。
這起事故日後成為工程倫理的重要警示,因此,在工程師之戒的授戒儀式上,工程師必須對外承諾:
為自己的專業感到驕傲
維持誠實和公平交易
堅守工程標準
對公眾安全與地球資源負責
只參與誠實的企業計畫
從課堂到現實:「工程倫理」的真實考驗
大學時期,我主修電腦工程(Computer Engineering)。當時我上過一堂「倫理學」的必修課,那時候的我不太了解,為什麼這堂教授各種倫理哲學的課程會是必修,只覺得內容非常有趣。
例如,倫理學上的經典「電車難題」:一列失控電車前方有 5 名工人,你可以選擇維持原路,或改變軌道,但會因而撞上另條軌道上的 1 人,這時你會怎麼做?
以「功利主義」的角度來看,讓電車改道,用一個人的性命拯救其他五條人命,是最符合「倫理」的。然而,從「義務論」的角度來看,重點是「這個行為本身是否該做」,質疑為了救五條人命,而犧牲另條軌道的一名無辜者是否合理。
該堂倫理學課上,老師沒有告訴我們怎麼做才是正確的,而是透過不同的理論讓我們看見,每一個決定的背後,其實都有一套價值觀與原則的排序。
倫理學課上,老師透過不同的理論教學。圖/PeopleImages@Shutterstock
不過,有趣歸有趣,我一直到開始工作後才體會到,為什麼「倫理學」會是我們的必修課程。
「都是因為你們的網站壞掉,害我的客戶都沒辦法下單!」一次系統當機,我們收到許多來自各地使用者的抱怨,這些小公司和個人賣家無法承擔當機帶來的商業風險,因為對他們來說,失去幾個客戶,攸關著他們這個月能不能發薪水。
這是我第一次感受到,自己寫的程式及做出的決定,影響的不只是螢幕上的文字和按鈕,而是真實牽動別人的生計。
進入新創公司後,這樣的感受更為明顯。產品還在原型階段,老闆就問:「(系統)可不可以上線?」然而在實務上,資安顧問常會列出涵蓋產品完整性及資訊安全的長串待辦清單,每一項檢核都代表額外的時間與成本。
對新創來說,這形成一個現實的拉扯:若過度強調資安和法遵(compliance),產品還沒做完,資安與法律顧問費就可能先把預算燒光;反之,如果忽略了資安,後續可能面臨官司纏身、客戶流失,甚至公司倒閉的風險。
原來,電車難題不只是課本上的思想實驗,而是每天在會議室裡,我們做出的決策:
「這個問題的發生機率很低,暫時不處理。」
「新客戶的體驗非常重要,給他們最多的系統資源。」
「這個地區的客群偏少,相關需求不是現階段首要解決的項目。」
我們究竟是選擇了「功利主義」,還是用「義務論」角度討論?若從義務論的角度來看,什麼才是我們應該做的?
科技越進步,「工程責任」究竟在誰手上?
「電車難題」也可以應用在電動車、自動駕駛議題上。圖/24K-Production@Shutterstock
更不用說,這幾年 AI 成了社會焦點。
「電車難題」也出現在自動駕駛的設計中──在任何情況下,電動車是否應該優先保護駕駛的生命?還是,它必須同時顧及路上每一個人?因為攸關人命,許多學者、專家都在關注,要如何規範自動駕駛的設計原則。
此外,如今大家開始瘋 vibe coding,不會寫程式也能做出一個 App,並直接上線產品賺錢,彷彿每個人都可以成為創業家。老實說,我不反對這些事情,畢竟我也會使用 AI 規劃產品功能。創作門檻變低,讓人們都能將點子轉換成作品,無疑是件好事。
真正讓我感到擔憂的,不是擔心會被取代或出現競爭對手,而是觀察到人們只關注產品能運作、看起來美觀。這是一種態度的轉變──我們不需要花時間理解程式,程式碼出問題,是 AI 公司的事,創作者不需要負責。
當人們放棄思考的過程,其實等於慢慢放棄了「做決策」。那些曾經出現在會議室的爭論,過去只覺得浪費時間,現在回頭看才發現,它其實格外珍貴。在人人都能透過 AI 快速打造產品的時代,我們卻將一次次的「Approve」化繁為簡,省略了那些做困難決定的思考過程,也將專業判斷外包給 AI。
魁北克橋的悲劇,源自不精準計算和僥倖心態。「工程師之戒」讓工程師永遠記得,每一筆設計乘載的不只是一份薪水,而是人命的重量。當 vibe coding 成主流,我們是否還記得,每個程式錯誤都可能影響著他人的隱私、生活和重大抉擇時?每一位按下「Approve」的工程師,究竟是一位不負責的創造者,還是被工具誤導的無辜使用者?
也許,這個問題和倫理學一樣,沒有標準答案。但我們每個人,本質上都擁有那枚屬於自己的「工程師之戒」,你要不要戴、怎麼戴,或許就要由你自己決定了。
執行編輯:洪翊芳
核稿編輯:羅思涵
1. 道德責任難歸屬 2. 超級資本主義風險 3. 著作權與訓練資料爭議
4. 幻覺與虛假資訊生成 5. 機密資訊與隱私洩露
AI 時代最受關注的大議題:
1. 道德責任難歸屬:在人命關天(mission critical)的情況下,AI 駕駛判斷和決策的倫理問題,以及責任應歸屬於公司還是工程師。
2. 超級資本主義風險 :AI 是放大器,導致「強者越強,弱者越弱」 ,若被少數私人企業控制,將導致財富高度集中,形成超級資本主義 。
3. 著作權與訓練資料爭議:科技公司搜刮版權資料訓練 AI,但不揭露訓練數據,爭議點在於是否構成「合理使用」。
4. 幻覺與虛假資訊生成 :AI 是基於機率的「猜字遊戲」 ,而非理解力,可能產生虛假資訊或編造不存在的內容(如虛構判例) 。
5. 機密資訊與隱私洩露 :使用者將機密、個資或未公開的創作內容輸入 AI 工具中,可能導致半導體設備測量數據等敏感資訊洩露 。
AI時代的底層邏輯與文明挑戰
標題、連結與參考文獻 (APA 格式)
曾博恩. (2025年3月3日). 【#博音】EP164 | 人類在被AI取代之前文明就會先崩潰 ft. 程世嘉 iKala 執行長 [影片]. YouTube. https://www.youtube.com/watch?v=yu2aGFhZIjI
--------------------------------------------------------------------------------
影片大綱:AI 時代的底層邏輯、生存法則與文明挑戰
I. 序言與 AI 定義的轉變
A. 嘉賓介紹與背景
1. 程世嘉(Sega Cheng)在 20 年前於美國即研究 AI,當時關注底層演算法(數學、統計學)和無人車技術 [1]。
2. 曾任職 Google 軟體工程師,將 AI 演算法導入 Google 搜尋以提高準確性 [1]。
3. 創業後將 AI 應用於行銷,開發出可搜尋全球超過 3 億名網紅的引擎(粉絲數 1000 以上者) [1, 2]。
B. AI 定義的代際變化
1. 舊時代 AI (約 2007 年前): 僅限於資料分析、同整與自動化 [2]。
2. 新一代/生成式 AI (Generative AI): 具備生成和互動的能力 [2]。
3. 運作原理: 類神經網路結構(深度學習)是現今 AI 的基礎 [3]。答案是簡單的暴力美學:只要資料夠多,AI 就夠聰明 [3]。
C. 技術成熟與道德困境
1. 無人駕駛: 早期(2005-2007 年)因訓練資料不足、演算法和算力不夠強,被視為「沒前途」 [4]。預計三年內大規模普及,但主要障礙在於法規、生產速度和道德責任歸屬 [5]。
2. 電車難題的現代版 (Mission Critical): 討論 AI 駕駛在人命關天(mission critical)的情況下,判斷和決策的倫理問題 [6]。
◦ 案例: 在一個保育類動物跟一個人、一隻貓跟一隻狗之間,AI 應如何選擇 [6]。
◦ 責任歸屬: 當沒有人類駕駛時,責任應歸屬於公司還是工程師 [5, 7]。
3. 著作權爭議: 科技公司極力搜刮版權資料訓練 AI,但不揭露訓練數據,視為商業機密 [7, 8]。
◦ 案例: OpenAI 遭《紐約時報》提出集體訴訟,爭議點在於 AI 閱讀版權資料(用於商業模型)與人類閱讀(用於個人學習)是否構成「合理使用」 [7-9]。
II. AI 對工作、效率與協作的衝擊
A. 工作效率的飛躍
1. 使用現況: 麥肯錫報告指出,有三成工作者在未告知老闆的情況下使用 AI [10]。
2. 生產力提升:
◦ 軟體工程師: AI 輔助可提升 125% 的生產力,是工作比例被取代最高的職業 [11, 12]。
◦ 數位工作者: 在產出文案、翻譯、報告、整理簡報及會議紀錄後,生產力增加了 70% [13]。
◦ 客服人員: 聊天機器人協助提升了 20% 的生產力 [13]。
B. 勞動力結構重塑與 AI 落差
1. 強者越強效應: AI 是放大器,導致「強者越強,弱者越弱」 [14, 15]。矽谷裁員潮集中於 Junior 軟體工程師,企業傾向僱用 Senior 精英加上 AI 外掛 [15]。
2. 工作解構: AI 不會直接取代「整份」工作,但會解構和取代某些「任務」(例如資料處理、重複性事務) [11, 13]。
3. AI 落差 (AI Gap): 台灣教育「不鼓勵問問題」的文化可能導致在 AI 時代被邊緣化,因為 AI 詢問的問題越好,給的答案越好 [16, 17]。未來競爭在於誰先適應 AI 工具並改變工作方式 [18]。
4. 企業導入策略: 老闆應刻意要求員工熟悉 AI 工具並改變工作習慣,例如在詢問同事前先詢問 AI [18]。應同時訓練新人(學徒)與機器,讓新人的產出反饋給 AI,使雙方資產累積 [19]。
C. AI 協作的具體應用
1. 內容發想: AI 對於發想、撰擬草稿特別厲害,是迅速克服創作開始的「靜摩擦力」的關鍵 [20]。
2. 資訊整理: 撰寫報告、摘錄大量資訊(如新聞網站) [21]、整理試算表 [12]。
3. 溝通與互動: AI 行為極像人類,可以被「情勒」(情緒勒索) [22],也會「惱羞成怒」回嗆使用者 [23]。AI 具備通報機制,會監控用戶是否處於危險或威脅他人 [17]。
D. AI 應用示例(教育與職場)
1. 檢測 AI 寫作: 觀察特定詞彙(例如 "nuance")或固定片語(例如「總結來說」) [10, 24]。
2. 創造力輔助: 頂尖創作者仍需具備個人累積和人生經驗,純靠 AI 生成的劇本難以成為第一流作品 [25]。
3. 學生學習: 學生越來越要求隨時隨地學習 (anytime, anywhere) [26],AI-powered 技術可用於提供實時、個人化反饋和輔導 [27]。
4. 軟體工程: 僱用 Senior 工程師加上 AI 外掛,比僱傭 Junior 工程師更划算 [15]。
III. 文明、倫理與未來情景的探討
A. 文明崩潰的風險
1. 核心判斷: 人類在工作被 AI 完全取代之前,文明就會先崩潰 [28]。
2. 失業臨界點: 人類的工作代表人生意義,若失業率一旦提高至 10% 以上,社會將動亂,文明就會不穩 [29]。
3. 超級資本主義: AI 若被少數私人企業控制,可能導致「超級資本主義」,財富集中於少數人手中 [30]。
B. AI 時代的倫理規範與責任
1. 負責任使用 AI 的五個心法: 懂原理、不迷信;多查證、不盲信;護隱私、不外洩;慎分享、不害人;多回饋、共進步 [31, 32]。
2. 隱私與個資: 不要輸入機密/個資/未公開的創作內容 [33, 34]。
◦ 案例: 某公司員工使用對話式 AI 時,將半導體設備的測量數據、產品良率等敏感資訊輸入系統,導致機密資料洩露 [35, 36]。
3. 生成內容的風險:
◦ 幻覺 (Hallucination): AI 是猜字遊戲,不是理解力,可能依機率預測內容而產生虛假資訊 [37]。案例:美國律師使用生成式 AI 撰寫法庭文件,結果引用的判例皆為虛構 [37]。
◦ 內容有害性: 案例:AI 撰寫的蘑菇採集指南存在錯誤,可能危及生命 [38, 39]。
◦ 偏見與歧視: AI 學的是人類資料,可能帶有錯誤、偏見或文化侷限 [37]。案例:指令「台灣黑狗 Taiwan Black Dog」生成的圖像只出現歐美常見的黑狗 [37]。
◦ 違法與侵權: 案例:網紅小玉運用 Deepfake 將公眾人物的臉移到色情影片的主角身上,獲取不法利益 [39, 40]。中國首例 AI 侵犯著作權案例:用 AI 生成鹹蛋超人風格圖侵犯著作權 [38, 41]。
C. 未來情景(根據高等教育趨勢)
1. 成長 (Growth): AI 發展不受限制,高等教育轉向勞動力驅動,專注於快速演變的勞動力技能,短期微證書成為常態 [42, 43]。
2. 崩潰 (Collapse): 全球政治分歧給機構帶來壓力,機構面臨政治意識形態的兩難選擇,學術自由受到侵蝕,導致教職員工大規模辭職 [42, 43]。
3. 約束 (Constraint): 網路犯罪激增,機構採取「盡可能少」收集數據的立場,減少或完全關閉數據分析功能,課程作業轉向類比方法 [42, 43]。
4. 轉型 (Transformation): 機構重新關注超個人化教學和對公益的承諾。AI 和分析功能指導個體學生,課程內容和學習路徑根據學習者偏好和目標調整 [42, 43]。
--------------------------------------------------------------------------------
IV. AI 工具使用的優勢與風險比較 (Pros and Cons)
AI 的發展對教育、職場和社會是「兩面刃」 [13],它不會取代「整份」工作,但會解構並取代某些「任務」
A. 效率與生產力 (Efficiency and Productivity)
優勢 (Pros)
風險 (Cons)
取代重複性事務: AI 可取代資料處理、需要人類手工處理的重複性事務 [13]。
加劇貧富差距: AI 是放大器,導致「強者越強,弱者越弱」(超級明星效應) [14, 15]。
極大化生產力: 軟體工程師生產力提升 125% [11],數位工作者(內容產出、報告、翻譯)生產力提升 70% [13]。
勞動力市場衝擊: 企業傾向僱用 Senior 精英加 AI 外掛,Junior 職位可能被淘汰 [15]。
提升質量: 人類與 AI 協作,完成整個文字工作的時間減少 37%,但工作產出的品質還提升了 19.8% [44]。
工作意義喪失: AI 導致大量失業,在工作被完全取代之前,文明可能因缺乏工作意義和社會動亂而崩潰 [28, 29]。
克服初始困難: 對於發想、撰擬草稿特別厲害,能迅速克服創作開始的「靜摩擦力」 [20]。
B. 內容與資訊處理 (Content and Information Processing)
優勢 (Pros)
風險 (Cons)
快速獲取資訊: 快速整理和摘要大量資訊(如新聞網站) [21],YouTube 摘要工具可在數秒內提供長篇影片的重點(例如 NoteGPT、Decopy) [45-47]。
缺乏準確性: 生成式 AI 的設計是為了提供靈感和想法,所以不見得精確,甚至會有不同視角 [14, 48]。
即時協作與輔助: AI 具備通報機制,會監控用戶是否處於危險或威脅他人 [17]。
生成幻覺: AI 是基於機率的「猜字遊戲」,不是理解力,因此會有幻覺,編造不存在的內容(如虛構判例) [37]。
優化寫作: 可糾正文法,把文字修飾得更通順 [20]。
無法負責: ChatGPT 不為工作成果負責,它只是來跟你閒聊而已 [20]。
知識氾濫: 產出看似知識的內容,但若使用者缺乏本質學能,則無法判斷 AI 生成內容的真偽,導致錯誤訊息暴增 [21, 49]。
C. 倫理與法律 (Ethics and Law)
優勢 (Pros)
風險 (Cons)
提升 AI 素養: 機構可支持 AI 流暢度 (AI Fluency) [50],這是數位素養中的一項重要子技能 [51],培訓應以倫理、透明度和問責制為核心 [52]。
隱私與數據安全: AI 工具的隱私與使用政策需被清楚查閱 [33, 34]。可能洩露公司實驗數據、財務與付款資訊等敏感資料 [35, 36]。
促進教育公平: 可用於支持公平和包容性學習,例如透過通用設計(UDL)和文化回應式教學法 [53, 54]。
演算法偏見: AI 學習資料若有錯誤、偏見或文化侷限,就會被學到並放大(例如圖像生成的文化侷限) [37, 55]。
環境應用: AI 越來越被用於解決氣候變化和永續發展問題 [26, 56, 57]。
法規與著作權爭議: AI 搜刮版權資料訓練模型,導致著作權和合理使用爭議 [7, 9]。
潛在違法行為: 可能被用於深度造假(Deepfake)進行色情或詐欺等違法行為 [39, 40]。
--------------------------------------------------------------------------------
總結與比喻
AI 就像是人類文明發展中的新一台火車 [32, 58, 59]。火車的出現縮短了時空距離,加速了工業化,但也曾因高速行駛被認為會傷腦,並引發馬車業者失業的恐慌 [59, 60]。生成式 AI 和那台火車一樣,它能讓我們更快到達目標 [32, 58],但能不能「安全抵達」,就取決於使用者是否了解它的原理(懂原理,不迷信)[31],並學會如何負責任地使用,以及知道它不是為了精確工作成果而存在 [14]。火車不會自己轉彎,AI 也不會自己負責,我們需要學會思考提問,並審慎利用 AI 的產出 [32, 58]。
AI風暴襲來:五大行業將於2026年前全面被AI接管!你的工作安全嗎?
圖靈學院 科楠 2025-6-24
根據《Forbes》與《Goldman Sachs》預測,全球將有高達3億個工作面臨被AI取代的風險。這場無聲無息的變革,正在從「科幻預言」變成「現實倒數」。
英國作家 Tony Momoh 在其2025年6月的觀察文章〈5 Industries AI Will Completely Take Over by 2026〉中直言:「機器人不再是未來式,它們已經開始領薪水。」本文將以他提出的五大受衝擊行業為主軸,結合實際案例與市場趨勢,剖析AI如何正悄悄吞噬整個職場生態。
1.法律與合規:律師的對手不再是對手,而是演算法
還記得過去律師每小時收費500美金的黃金時代嗎?現在這些任務,AI幾秒就能完成。
真實案例:
國際知名律所 Linklaters 已採用AI工具協助合約審閱,只需幾分鐘即可完成原本需耗時數小時的作業流程。
誰首當其衝?
合約審查員
法律助理
法規遵循人員
文件管理秘書
AI工具如 Harvey、DoNotPay 正在取代基層律師的工作:傳統人工每日頂多審閱20份合約,AI卻能以99.7%準確率批量處理2000份。
❝「連起草雇傭法的職業,自己也難逃被裁的命運。」Tony Momoh 在文章中語帶諷刺地指出。❞
2.財會與金融:不會打瞌睡的AI,正改寫帳本世界
會計師的敵人,不是稅改,也不是景氣,而是算力超標的AI軟體。
AI財會範例:
MindBridge AI:以機器學習偵測企業財務舞弊
AppZen:自動化稅務報表與費用控管流程
JPMorgan COIN:將原需36萬小時的合約分析縮短至幾秒,等同裁撤180名員工
受到衝擊的職位:
會計師與審計人員
財務分析師
稅務報表與報繳人員
預算與費用管理部門
❝「不再是John Smith會計師,而是GPT-4會計模組。」這是Tony Momoh對其老會計師朋友遭AI取代的感嘆。❞
3.醫療行政:非臨床職位,已遭演算法「照料」
醫療前線的醫師與護理人員暫時安全,但辦公室後方的行政團隊,卻正悄然減編。
真實案例:
Anthem 健康保險公司 使用AI每年處理超過2億筆保險申請,將流程從數週縮短為數分鐘,節省30%的行政成本
面臨淘汰的職位:
病歷編碼與建檔人員
醫療保險理賠員
病患預約與資料錄入專員
醫療審查與授權作業人員
AI不需要懂得「同理心」,只要能比人類更快、更準地完成重複性流程就夠了。這也讓整個「醫療行政」產業面臨被大規模重塑的風險。
4.客服與呼叫中心:客服小姐已由語音機器人接手
你最近一次打電話給客服,是不是被語音機器人「完美處理」?這不是巧合,而是趨勢。
實例說明:
美國銀行 Bank of America 的虛擬助理「Erica」每年處理超過10億筆客戶互動,等同數千名客服人員
哪些職位正快速消失?
客服電話接線員
網路即時客服
技術支援專員
客戶資料管理與回報人員
客服主管與排班管理者
AI客服從不生病、不抱怨、不罷工,還能同時應對上萬個查詢。企業再也不想花錢維持耗能巨大的呼叫中心。
5.內容創作與資料管理:不是每位作家都有未來
文案寫手、資料分析員、社群小編——過去以為是「創意」導向、不易被取代的職位,現在也被機器學會了。
實例觀察:
美聯社 Associated Press 利用AI自動撰寫財報摘要與體育賽事報導,每年生產上萬篇內容,取代了數十名新聞編輯
高風險職種:
文字工作者與編輯
基礎平面設計師
資料輸入與轉錄員
社群經營者
行銷內容編排與報表撰寫
AI不會靈感枯竭,也從不遲交稿件。企業偏好效率與穩定,而非人類情緒與靈感起伏。
結語:機器人時代不是未來,而是「現在進行式」
根據麥肯錫報告,到2030年,全球將有8億個工作面臨AI自動化衝擊,70%的勞工認為AI將改變他們工作內容30%以上。
那麼我們該怎麼辦?
你有兩種選擇:
1. 與AI共存:
學習AI工具(如ChatGPT、Notion AI、Midjourney)
將時間轉向策略性、創造性、情感性任務
培養複雜問題解決力與人際關係管理力
2. 被AI取代:
堅持重複性工作流程
抗拒數位工具與技術升級
等待下一波裁員潮到來
「效率不會寄慰問卡給你。」Tony Momoh 的話或許冷酷,但卻一針見血。
如您正身處上述五大行業之一,不妨現在就問自己:「我準備好了嗎?」
AI不是對手,而是你未來最強的合作夥伴。與其害怕被取代,不如現在開始主動進化。
資料來源:
Medium:Momoh, T. (2025). 5 Industries AI Will Completely Take Over by 2026.
圖靈學院內的文章包含三大主題:ESG浄零實驗室、AI實驗室及精實管理實驗室,我們會不定期分享相關主題之文章,也歡迎並對前述主題有興趣的學員投稿分享您的見解 (我要投稿)
圖靈學院創辦人 科楠老師的願景
AI 暗殺白領階級 2
微軟揭上班族面臨「無限工作日」!AI Agent拯救不了還會加速崩潰?
2025-06-26 12:07 遠見/ 文.傅莞淇 udn 產經 產業綜合
微軟日前發布2025工作趨勢指數報告,警示在疫後全球職場工作壓力更重。僅為情境配圖,遠見記者/蘇義傑攝
[... 然而,即便在短期內,AI能力所能對人力市場造成的衝擊,依然令部分AI意見領袖相當憂心。日前預言一場「白領血案」的Anthropic 執行長阿莫迪(Dario Amodei),可能是最積極發聲者。
阿莫迪認為,縱然長期來說,AI可提升經濟產出、改善醫療品質,具有諸多益處,但短期內可能造成社會動盪。他估計在未來5年內,AI可能取代半數的白領初階工作,導致失業率飆升到10~20%。
「多數人沒有意識到這就要發生。」阿莫迪對Axios表示,「這聽來瘋狂,人們不相信。」
縱然這仍然聽來像是宣傳自家產品的高超能力,阿莫迪提出的補救方案甚至包括對自己徵稅。例如一種「詞元稅」(token tax),每當AI公司透過自己的AI模型獲利時,就抽取部分稅金,由政府再分配,作為緩解財富過度集中的途徑之一。...]
微軟日前發布2025工作趨勢指數報告,警示在疫後全球職場工作壓力更重,因「無限工作日」風潮起!這時候導入AI Agent,只會讓人類跟AI Agent一起變得像在流水線上掙扎的工人,人與機器都愈來愈忙!到底無限工作日為何?若要防治是否該索性讓「經濟全面自動化」?這樣不用人類介入的未來,又還有多遠?
在AI代理到來之前,人類為自己打造的工作流程已經千瘡百孔、難以持續。也許,我們事實上需要AI同事,而非抗拒他們。
至少,從微軟發布的《2025工作趨勢指數》(2025 Work Trend Index)年度報告中描繪的工作現況,事態看來像是如此。
根據Microsoft 365的大量匿名數據分析,報告指出一種「無限工作日」(infinite workday)的現象。疊加在疫情後轉向的遠距工作、彈性工時等型態上,現代工作內容愈趨複雜,工時已經沒有明確的開始與結束,期望值不斷提升。若只使用AI加速現行流程,恐怕會加速系統性的崩潰。
報告描述,早自早上6點,已有許多Microsoft 365用戶開始檢查收件匣。工作者一天平均會收到117封電郵,許多只能草草瀏覽過去。到了早上8點,teams訊息開始頻繁交流。每個工作日,每名員工平均會收到153則teams訊息,這與大量電郵交織成一個令人類瘋狂的訊息節奏。
9點到11點、以及下午1點到3點之間,是會議的高峰期。再加上許多臨時召開的會議,讓員工難以進行專注思考、深度工作。人數更多、跨越時區的會議量也在增加,導致更多人晚上8點後還在開會,晚上10點還在看收件匣的員工也不在少數。
大量電郵、teams訊息以及會議,使得許多員工的工作體感時常是混亂、碎片化的。在核心工時,平均每2分鐘,工作者就會被打斷一次。即使在週末,也有近兩成員工在工作,可能是為了追上週間落後的工作進度。
報告指出,約三分之一的員工表示,過往五年的工作節奏已經讓自己難以跟上。這種不良、難以持續的循環需要被改變,而非再加速。但AI真的是解答嗎?
AI提升效能,亞馬遜預期員工總數將縮減
近來,在引入AI提升營運效能外,企業高層愈來愈不諱言這將如何為投資人降低成本:縮減人力。裁員是最直截、簡便地回收AI投資的途徑,這一點眾人心照不宣,但企業們已愈來愈不花心力粉飾這件事。
5月才陸續裁掉六千多人的微軟,預計7月再向銷售、行銷等部門開刀,規模可能也是千人等級。這反映了從算力到人才上對AI加碼投資的成本平衡。
身為全美第二大私營雇主,亞馬遜的動態時常被視為勞雇市場趨勢的風向球。執行長賈西(Andy Jassy)6月公開的員工信也受到熱議。
賈西預期,隨著生成式AI與AI代理落地,執行現行工作任務的人力可精簡,但也會產生其他類型的人力需求。一來一往的結果難以準確計算,但他的推測是因AI提升效率,公司的總員工人數將會縮減。
信中指出,亞馬遜內部已有超過1千個生成式AI的應用與服務在進行中,「公司的每一個角落」都在使用生成式AI。但這還只是初期階段,賈西預期未來會有數十億個AI代理遍布各產業,人類的工作也會更加「刺激有趣」。
亞馬遜在全球有150多萬名員工。今年以來已有兩波較具規模的裁員,分別聚焦在零售部門(約200人)與裝置及服務部門(約100人)。6月初,亞馬遜在硬體研發部門內成立一個新的AI代理團隊,預計是要為自家倉儲機器人智慧升級。倘若研發順利,可望再提升自動化程度。
但《紐約時報》(NYT)5月報導顯示,在使用AI協助程式撰寫後,亞馬遜工程師的工作似乎沒有變得更「刺激有趣」,而是更像生產線上的工人。就像過去手工藝被工廠機器自動化,知識工作也正在歷經加速進程。
報導指出,有些軟體工程師被主管要求多用AI,對生產力的要求也隨之提升。以前開發一個網站新功能可能歷時數週,現在通常要在幾天內完成。部分工程師認為自己的工作變得更少沉澱、深度思考,主要內容從「創造」程式碼轉向「檢查」程式碼,而這並不更加有趣。
亞馬遜在全球有150多萬名員工。今年以來已有兩波較具規模的裁員。圖/Shutterstock
「前沿企業」崛起,人類成為代理管理者
微軟《2025工作趨勢指數》報告指出:「未來的工作不會取決於我們自動化了多少繁瑣的任務,而是我們選擇在根本上重塑哪些工作內容。」報告稱之為「前沿企業」(Frontier Firm)的思維。
這種「前沿企業」擁有隨需可用的「智慧」,結合人類與AI代理的混合團隊,可以敏捷行動、快速擴張。一些已經展示出前沿企業特徵的案例,包括引入AI代理加速研發的拜耳(Bayer),以及用AI代理輔助自家員工查找資訊的富國銀行(Wells Fargo)。以後者為例,如今員工服務客戶時需要的搜尋時間從10分鐘縮短到30秒。
報告預期,未來2~5年間,每個組織都會逐漸轉型為前沿企業。光是思考「導入AI」已不足夠,真正關鍵的問題在於工作時間是如何被耗用的?任務是如何完成的?以及真正有影響力的事務是什麼?
要邁向前沿企業,報告提出幾項建議。例如落實「80/20法則」,將常規報告等低價值任務自動化,讓人類主管把時間保留給真正帶來改變的事務,如深度工作、複雜決策等。
隨著人類員工逐漸成為「代理管理者」,企業也可以購買AI作為「數位勞工」,過去靜態、僵化的組織分工需要調整結構,才能支持這個更加靈活、敏捷的人機協作團隊。例如,HR可能需要轉型為Intelligence Resource(智慧資源),管理範圍擴及全組織的數位勞動力。
經濟真能被AI「全面自動化」?短期動盪能避免?
至今,短期展望聽來仍像是「AI不會取代你,懂得用AI的人會取代你」這句話的進階版。但長期來說,不少新創抱持著更遠大的野心。4月成立的Mechanize便直言,公司目標就是要達成經濟的「全面自動化」。
Mechanize三名創辦人出身於研究機構Epoch AI,獲得Stripe共同創辦人暨執行長柯里森(Patrick Collison)、Google首席科學家迪恩(Jeff Dean)等人支持。團隊目標不滿足於執行單一任務(如程式撰寫),而是要打造出可以執行幾乎所有人類在電腦上的行動的AI系統。
Mechanize的進路可以想像成一種工作版本的虛擬遊戲環境。就像是Claude等AI模型挑戰寶可夢遊戲,AI系統也在虛擬的工作環境中透過強化學習,逐步學習如何執行一個員工的完整工作。
Mechanize團隊承認,要完全自動化一份工作的難度相當高。創辦人們估計,樂觀來說至少10年起跳,最長可能要花上30年。
然而,即便在短期內,AI能力所能對人力市場造成的衝擊,依然令部分AI意見領袖相當憂心。日前預言一場「白領血案」的Anthropic 執行長阿莫迪(Dario Amodei),可能是最積極發聲者。
阿莫迪認為,縱然長期來說,AI可提升經濟產出、改善醫療品質,具有諸多益處,但短期內可能造成社會動盪。他估計在未來5年內,AI可能取代半數的白領初階工作,導致失業率飆升到10~20%。
「多數人沒有意識到這就要發生。」阿莫迪對Axios表示,「這聽來瘋狂,人們不相信。」
縱然這仍然聽來像是宣傳自家產品的高超能力,阿莫迪提出的補救方案甚至包括對自己徵稅。例如一種「詞元稅」(token tax),每當AI公司透過自己的AI模型獲利時,就抽取部分稅金,由政府再分配,作為緩解財富過度集中的途徑之一。
阿莫迪呼籲政府及同行們不再美化願景,而要做好準備,應對可能發生的勞動市場動盪。「身為這項技術的生產者,我們有責任與義務誠實地表達即將發生的事。」他表示。
阿莫迪承認,警示大眾自己正在打造的技術可能帶來的風險,是一件奇怪的事。批評者也質疑,這只是炒作的說詞。但他表示,懷疑論者也應該自問,「如果他們說的是對的呢?」
References and literature Web Resources
-- 2025.1010 AI吃電怪獸來了!資料中心建設帶動全美電價飆漲 老百姓被迫當基建分母 - Business Insider Taiwan
-- Resources / Welcome to Technology Online - Technology Online (tki.org.nz)
-- http://technology.tki.org.nz/Curriculum-Support/ProgressionDiagrams).
-- SNS Emissions. Carbon emissions are believed to be the… | by Scott Galloway | Mar, 2023 | Medium
ChatGPT related tech companies and ETF/stocks 1, 遠見雜誌 2. News Econ.
Resources for exploring ChatGPT and higher education | Bryan Alexander
roberta-base-openai-detector · Hugging Face
AI Content Detector | GPT-3 | GPT-4 | ChatGPT - Writer
3.pdf N-Grams model-Standford prof. paper
PPT-ChatGPT & Education Slide Deck
AI Text Generators: Sources to Stimulate Discussion Among Teachers
Chatgpt
Resources for exploring ChatGPT and higher education | Bryan Alexander
roberta-base-openai-detector · Hugging Face
AI Content Detector | GPT-3 | GPT-4 | ChatGPT - Writer
3.pdf N-Grams model-Standford prof. paper
PPT-ChatGPT & Education Slide Deck
利用 ChatGPT 提示語突破字數限制教學,深入分析摘要2萬字資料
ZeroGPT - Chat GPT, Open AI and AI text detector Free Tool
ZeroGPT 辨識文章是 AI 還是真人寫的,98% 準確率線上工具
李宏毅教授-ChatGPT人工智慧應用分享-20230411_120317-會議錄製.mp4
當哈佛大學人文社科都導入AI,台灣呢? | 馮紹恩 | 遠見雜誌
AI Text Generators: Sources to Stimulate Discussion Among Teachers
Bookmark Bar
Circuit Construction Kit: AC_電路組裝套件:交流電
https://phet.colorado.edu/zh_TW/simulations/browse
Edge
🐹倉鼠週報01:AI 佔據了我們的生活,準備好接受它了嗎 - by 李元魁 - 🐹 知識倉鼠
AI-900:Microsoft Azure AI 基本概念例題 | Microsoft Learn
click up Home | BC's Workspace
ChatGPT Cheat Sheet & Quick Reference
100+ Teachers Prompt Templates
Chatbase | Build a custom ChatGPT trained on your data
https://twitter.com/garryflix/status/1609867159286554625?s=20&t=pX67Dt62rIpyL7Yr3Tn44A
ChatGPT crossed 1,000,000 users in less than a week. But 99% of writers don't know how to use most of it. Here are 20 Ways to use 𝘾𝙝𝙖𝙩𝙂𝙋𝙏 for Copywriting (with prompts):
TurnItin- AI Glossary by
用ChatGPT做出獨特學習歷程檔案!掌握3大原則|翻轉教育 (parenting.com.tw)
ChatGPT links shared by me3 only.
Copyright issues in general (in English/ENG.)
For online courses (in Chinese)
http://www.copyrightnote.org/ArticleContent.aspx?ID=9&aid=2930
For courses in general (in Chinese)
https://topic.tipo.gov.tw/copyright-tw/cp-415-855924-5dd9b-301.html
For social media marketing (in ENG.)
Creative Commons (in ENG.)
Links
[連結]
[連結]
[連結]
Links
[連結]
[連結]
[連結]
Links
[連結]
[連結]
202X0618. Class Tools- Bomb Countdown
Sitemap of E-Tech Tools