Hellow World - 權力

IMA | Play A+ | 會讀書?

行動讀書會 | 打開演算法黑箱 | Hello World

# IMA PLAY A+ 會讀書? 讀書會:約聘「PLAY A+」主持人

2019 IMA CIO高峰論壇暨會員大會

AI科技.資訊安全.雲端運算

Play A+ | 會讀書? | Hello World

  • 漢娜·弗萊 / 數學家 / 生日: 1984 年 2 月 21 日(35歲)
  • 專業: 流體力學 ( 流體動力學博士學位。2011年。博士專題:水滴變形研究)

Play A+ | 會讀書? | Hello World

權力? (p. 025) | Q:唯來自直接的權威 ?

1997 May (至今已有22年) 當IBM的「深藍」(Deep Blue) 這場機器對人類的象徵性勝利

譯註:Deep Blue , 組合雛型電腦 Deep Thought (深思) 與 IBM暱稱 Big Blue而成

演算法時代的開端?

權力? 唯來自直接的權威? ~ SSME SD TWO DeepQ? CSR 工作小組

Play A+ | 會讀書? | Hello World

權力? (p. 025) | Q:唯來自直接的權威 ?

在本書中,將一次又一次看到,「預期心理」很重要? (作者Hannah似乎有一點強調,不過這或許可能是Hannah表達出她所見? )

「深藍」擊敗大師的故事證明:

  • 預期心裡很重要嗎? 是這樣嗎?
  • 演算法的力量不受其一行行編碼有何內容所限?
  • 了解自身而不只是在機器端上的(可能有的缺陷或缺點) ? 是關鍵所在? 這無涉掌控權?

Play A+ | 會讀書? | Hello World

權力? (p. 025) | Q:唯來自直接的權威 ?

回歸基本面? (p. 028)

  • 韋氏辭典_演算法(名詞) :一種按步驟解決問題或達成某種目的之程序? 尤其是藉由電腦?
  • 牛津英語辭典:的定義比較著重於演算法的數學性? 計算或其他解題操作,尤其是電腦,所依循的一個過程或一組規則?

就這意思。 簡單講,演算法就是展示如何從頭到尾完成一項任務的一系列邏輯指令。

按照這種寬鬆的定義,蛋糕製作配方也可以算是一種演算法。

你提供給迷路陌生人的方位指示也算。

IKEA操作手冊、YouTube疑難解決影片,甚至是自助類書籍~理論上,任何為達界定明確之目標所做的巨細靡遺指令清單,都可以把它說成是一種演算法。

但這個字眼不太是這樣用。

通常,演算法指的是稍微再明確一點的東西。

歸根究底還是指按步驟進行的指令清單,這些演算法幾乎清一色是數學性的東西。

進行一系列數學運算~ 運用方程式、算數、代數、微積分、邏輯和機率~並轉譯成電腦編碼;

投以來自現實世界的資料、給定標的並使之開始進行大量計算,以達成其目標。

這就是這些演算法使電腦科學真正成為一門科學,並在過程中給機器所製造之諸多最為神奇的現代成就添油生火。

再一次提醒:重點不在書? 而在看著書或手機或電腦螢幕的 妳/你? 那 妳/你所見呢? ~ SSME SD TWO DeepQ? CSR 工作小組

演算法的四種思考? 或思考下的四種演算法? 或 四種思考法及其演算方式? Q:這可以忽略嗎?

  1. 優先順位? 2. 分類? 3. 關聯? 4. 過濾? ...

演算法採用的概略兩種關鍵範型? ...

  • 規則行演算法? 和機器學習演算法? ...

Q:教者 / 學者 / 科研 / 學業 / 教務 / 高教/ 研究/ 訴諸大眾傳達....會一起走到哪?

演算法跟真正權威有何干係? ~ SSME SD TWO DeepQ? CSR 工作小組

Play A+ | 會讀書? | Hello World

權力? (p. 025) | Q:唯來自直接的權威 ?

絕大多數的演算法應該是打造來執行上述類別(優先順位? 2. 分類? 3. 關聯? 4. 過濾? ...)的綜合任務。

UberPool為例 (p. 031)

  1. 把即將搭車的乘客與同一方向的其他乘客配對。
  2. 已知你的起點和終點,就能過濾出讓你回家的可能路線、
  3. 找出與同一方向其他用戶的關聯性,
  4. 然後挑出一個可以將你編進去的組合~
  5. 進行這一切的同時,還要以駕駛轉彎次數最少為條件,
  6. 排出路線優先順位,
  7. 盡可能提高這趟車程的效率。

就這樣,這是演算法所能做到的。

那麼,演算法是如何辦到的呢? 這個嘛,還是那句話,儘管實務上的可能性無窮盡,仍然有辦法加以萃取。

你可以把演算法所採取的作法概略地納入兩種關鍵範型中思考,這兩種範型我們在本書中都會遇到。

  1. 規則行演算法
  2. 機器學習演算法

Play A+ | 會讀書? | Hello World

權力? (p. 025) | Q:唯來自直接的權威 ?

規則行演算法? (p. 32)

第一種類型是規則型 (rule-based)。

其指令是由人所建構,直接而不含糊。

你可以把這些演算法想像成遵循蛋糕配方式邏輯。

步驟一:這樣做。

步驟二:如果這樣,接著就那樣。

這並不表示這些演算法簡單~此一範型中有很多空間可以打造威力強大的程式。

Play A+ | 會讀書? | Hello World

權力? (p. 025) | Q:唯來自直接的權威 ?

機器學習演算法? (p. 32)

第二種類型是受生物學習方式所啟發。

為了讓你有個類比,想想你自己是如何教一隻狗和你擊掌。

你不需要製作一份精確清單,然後和這隻狗溝通清單的內容。

身為訓練師,你所需要的,是心中對於你想要這隻狗做什麼有一個清楚的目標,以及當牠有足夠的練習,自己去想出該怎麼做。

這在演算法上便是是所謂的機器學習演算法 (machine-learning algorithm) ,後來冠上一個更大的帽子,叫人工智慧 或人工智能 (artificial intelligence),也就是AI

其實,演算法早以一在地被運用於日常?

問題是:如果我們正把這些權力全都交出去,這些演算法值得我們信賴嘛? (Hannah 介紹完這兩種範型後,寫下這一個提問。)

權力和權威有何不同?

當演算法持續演化,其演算品質和你自我演算品質,你又會如何看待呢?

在當 妳/你竭盡所能、付出自己最大努力、貫徹意志奮鬥不懈、親力親為掌握並執行著一切 妳/你摘要所學成功要素時? 妳/你又是如何看待的呢?

~ SSME SD TWO DeepQ? CSR 工作小組

Play A+ | 會讀書? | Hello World

權力? (p. 025) | Q:唯來自直接的權威 ?

盲目信任? (p. 35)

2009年3月22日星期天對羅伯.瓊斯 (Robert Jones)來說不是個好日子,他的GPS把他帶到險境。同年稍後,他被控魯莽駕駛現身法庭時,承認自己沒想過要推翻機器指令。

2015年科學家開始檢視Google這類搜尋引擎怎麼有權力改變人們的世界觀? 實驗以當時印度即將舉行的一項選舉為焦點。在心理學家羅伯.艾普斯坦 (Robert Epstein)率領下,從印度全國各地招募2150名尚未決定投票對象的選舉人,讓他們使用特別設計的搜尋引擎,叫做Kadoodle,協助他們在決定投票對象之前獲知更多候選人有關的資訊。

Kadoodle受到操縱。

妳/你以為對自己的見解有多大的主動權? (p. 38)

並對每一項搜尋結果做批判性思考?

但這裡需要做一點區別。因為信任一個通常可靠的演算法是一回事,對演算法的品質沒有堅實的瞭解便予以信任,完全是另一回事。

Play A+ | 會讀書? | Hello World

權力? (p. 025) | Q:唯來自直接的權威 ?

人工智慧遇上天然呆? (p. 39)

  • 人類樂於僅憑表象便接納演算法?
  • 不是很想知道幕後到底在搞什麼鬼?

Play A+ | 會讀書? | Hello World

權力? (p. 025) | Q:唯來自直接的權威 ?

何時否決? (p. 42)

斯坦尼斯拉夫.彼得羅夫(Stanislav Petrov)是一名俄國軍官,負責監控防衛蘇聯領空的核彈預警系統。他的工作是萬一電腦顯示任何美國攻擊訊號,要立即向他的上級示警。

1983年9月26日,彼得羅夫值勤時,午夜剛過不久,警報器開始狂響。

他不確定否要信任演算法。演算法只偵測到五枚飛彈,以美國攻擊的首波齊射規模來說,似乎小得不合邏輯。

彼得羅夫僵在他的座椅上。就看他了:回報警訊,把世界送入幾不可免的核子戰爭;或是等一等,不管規定流程,明知時間一秒一秒地過去,他的國家領導人發動反擊的時間越來越少。

對我們所有人來說,幸好彼得羅夫選擇了後者。他沒有辦法確知警報是不是響錯了,但二十三分鐘過後~當時感覺起來一定如同永恆~顯然沒有核彈落在俄國土地上,他終於知道他是對的。演算法犯了錯。

如果這個故事有什麼是我們可以學習的,那就是人類要素似為這個過程中關鍵的環節:有一個握有否決權的人,能在做出決定之前對演算法的建議進行評估,是避免錯誤的唯一合理作法。

畢竟,只有人類會感到為他們的決定負責的沉重。負責上報克林姆林宮的演算法對於這種決定的潛在後果,應該是連一秒鐘都不會去想。但另一方面,彼得羅夫呢? 「我完完全全明白,如果我犯了錯,沒有人能更正我的錯誤。」

這種結論的唯一問題是:人類也一樣,不是每次都那麼可靠。有時候就像彼得羅夫、會正確地否決演算法。但我們的本能往往遭到極度漠視。

IMA | 行動讀書會 | 打開演算法黑箱

Play A+ | 會讀書? | Hello World

倫敦大學學院數學教授Hannah Fry,新書“ Hello World (你好世界):Being Human in the Age of Algorithms (English) 1st 版本,打開演算法黑箱(臺灣 / 繁體中文書名) ”的作者,參加了儀式並指出,隨著越來越多的人類決策被自動算法取代,有時候至關重要保持有一個人在把關 - 就像彼得羅夫的情況。

資訊來源:http://bit.ly/HelloWorldFLI

斯坦尼斯拉夫·彼得羅夫(Stanislav Petrov)的女兒埃琳娜(Elena)持有2018年的生命未來獎,其中包括她的丈夫維克多。左起:Ariel Conn(FLI),Lucas Perry(FLI),Hannah Fry (<打開演算法黑箱>作者),Victor,Elena,Steven Mao(執行製片人Petrov電影“拯救世界的人”),Max Tegmark(FLI)來源 http://bit.ly/HelloWorldFLI

為慶祝今天不是第三次世界大戰35週年,1983年9月26日幫助避免俄美全面核交換的斯坦尼斯拉夫彼得羅夫在紐約獲得了50,000美元的人生未來獎。在紐約數學博物館舉行的儀式。

前聯合國秘書長潘基文說:“很難想像任何比人類更具破壞性的東西,而不是俄羅斯和美國之間全面的核戰爭。然而,這可能是1983年9月26日意外發生的,如果不是斯坦尼斯拉夫·葉夫格拉福維奇·彼得羅夫的明智決定。為此,他值得人類深深的感激。讓我們決心共同努力,實現一個不受核武器恐懼的世界,記住斯坦尼斯拉夫·彼得羅夫的勇敢判斷。“

生命的未來獎旨在表彰和獎勵那些採取特殊措施來保護人類集體未來的人。它由生命未來研究所(FLI)提供,這是一個非盈利組織,也因與Elon Musk和其他人一起支持人工智能安全研究而聞名。“雖然大部分人都沒有在學校裡了解佩特羅夫,但如果不適合他,他們可能就不會活著”,FLI聯合創始人Anthony Aguirre說。去年的獎項授予Vasili Arkhipov,他在古巴導彈危機期間單槍匹馬地阻止了對美國的核攻擊。FLI目前正在接受明年獎項的提名。資訊來源:http://bit.ly/HelloWorldFLI

Play A+ | 會讀書? | Hello World

權力? (p. 025) | Q:唯來自直接的權威 ?

權力鬥爭? (p. 45)

明尼蘇達大學臨床心理學教授保羅.米爾(Paul Meehl):數學演算法,無論有多簡單,所做的預測幾乎每次都比人類好。

機器不會是十全十美,但賦予人類否決演算法的權力,只會增加更多的失誤。

或許這沒什麼好意外的,我們人類不是為了計算而打造的。

而且大多數時候,我們最好是放手讓機器自己弄。就像民航機駕駛員之間流傳的說法,最佳飛航團隊有三個要件:一名駕駛員、一部電腦和一隻狗。電腦在那兒開飛機、駕駛在那兒餵狗、而狗在那兒是要咬人,如果人類試圖碰電腦的話。

但我們與機器之間的關係有個弔詭。這就是研究人員所說的演算法惡感(algorithm aversion)。比起自己的錯誤,人對演算法錯誤的容忍力更低~即使他們自己的錯誤更嚴重。

演算法只是工具,

與 妳/你在諸多領域中各司其職地實現既定目標?

如此,可以毫不猶豫地讓已協議好的這一切:

放手使其自動駕駛?

~ SSME SD TWO DeepQ? CSR 工作小組

Play A+ | 會讀書?

Hello World:How to Be Human in the Age of the Machine by Hannah Fry

打開演算法黑箱

IMA | Play A+ | 會讀書?

行動讀書會 | 打開演算法黑箱 | Hello World

# IMA PLAY A+ 會讀書? 讀書會:約聘「PLAY A+」主持人

會讀書? | 讀書會2

英文書名:CAPITALISM Without CAPITAL :The rise of the intangible economy

中文書名:沒有資本的資本主義:無形經濟的崛起

出版 / 初版日期:遠見天下文化 / 2019年6月25日 第一版第1次印行

作者:

Jonathan Haskel (英國倫敦帝國學院 Imperial College London 經濟學教授,2015年起擔任英國金融行為管理局競爭決策委員會、支付系統監管局成員)

Stian Westlake (英國創新基金會Nesta資深研究員,曾在非營利事業機構英國青年基金會從事社會投資工作,並在矽谷的麥肯錫公司擔任顧問)

譯者:許瑞宋

會讀書? | 讀書會2

勞動生產力成長放緩可能有2大原因? (p.137)