人工智慧倫理道德準則

人工智慧倫理道德準則

人工智慧的核心價值與AI威脅論 

為什麼要建造人工智慧呢?往往被認為是為人類服務,使日常生活中的食、衣、住、行及娛樂更便捷,例如家事機器人可以幫忙掃地、洗衣、煮飯等家事;聊天機器人可以提供所需資訊及陪寂寞的人聊天,自駕車提供行與娛樂的服務,等等.......最終人類希望人工智慧,能幫人類解決「所有的問題」。但人類應反思,在未來AI在部分領域將超越了人類,AI是人類的朋友或者是敵人?人工智慧不能導致世界末日,將是人類在使用人工智慧最動要的新挑戰。

另一個課題人類利用AI犯罪。有心人會利用AI的演算法漏洞來謀取個人的利益,甚至可能發生AI的開發者或公司,利用AI來監控、竊取個人資訊,控制人類等犯罪行為,這個也是人類在使用AI應該預防的。

資料來源:https://read01.com/ADMAx5.html#.YrkRWXZBzIV

AI威脅人類

          矽谷兩大巨頭特斯拉執行長馬斯克與臉書執行長祖克柏為了AI而公開對槓。相較於祖克柏的樂觀論調,馬斯克嚴肅警告,AI十分危險,不只能取代人力,還能挑起戰爭,威脅人類存亡。

         「自動駕駛」和「人工智慧」這兩種科技,即將出現突飛猛進的變化。幾乎所有的新車都將具備自動駕駛的功能,就像現在的特斯拉汽車都已配備了自動駕駛所需的感測器,也擁有足夠的運算能力,可讓自動駕駛比人類開車更安全。以後搭車將會像搭電梯一樣,告訴車子要去哪裡,它就會把你安全地載到目的地,而這將成為常態,自動駕駛必將普及。但是如有人對於演算法漏洞進行攻擊,將造成人類財產或者生命的損失。

         未來會有很多工作被取代。全世界的工作有12%都跟運輸有關,運輸業將會是最早走向全自動駕駛的行業。機器人可以把每件事做得比人類還好,人類不該如何自處,這真的是很可怕的問題。最令人不安的是人工智慧比人類更聰明更危險。它藉由散布假新聞、製造假郵件帳號、偽造新聞稿,以及操縱訊息來挑起戰爭或者於戰爭時投放足以毀滅人類的武器及病毒。

          少數人認為應該主動立法管制人工智慧,除非有一天,人們親眼看到機器人在街頭殺人,我們才被動去規範它,那就已經太遲了。 吳怡靜   天下雜誌628期發布時間:2017-08-02


換臉技術

AI發展恐淪武器? 專家警告:5年內成威脅

人工智慧如何與人共存

資料來源:Pepper機器人和民眾互動。 圖/聯合報系資料照片

從人工智慧的技術發展,人工智慧可能發展成具有獨立思考能力,思考人類與人工智慧機器人如何共處,已成為地球公民的重要課題,於1942年由科幻小說家以薩.阿西莫夫(Issac Asimov)提出的機器人三法則常被拿來討論。

但是隨著人工智慧的應用越來越廣,阿西莫夫的機器人三法則過於籠統,已無法應付新時代機器人監管與治理需要,於是美國馬里蘭大學Frank Pasquale教授統整、發展出的「新機器人法則」

人工智慧機器人是代替人類從事危險或是「低人性」)的工作,它應作為專業人員的輔助工具,確保工作者在工作中得到價值感、成就感。

據心理學的恐怖谷理論,人類天生對於「非常像人類,但又覺得它不是人類」的事物會感到懼怕。因此早期的機器人會設計成可愛動物模樣,但人工智慧開發商已將外產品做得越來越像人然,甚至模仿歷史人物。

軟體開發商利用情感運算功能,讓人工智慧模仿人類的語言與情感,與人互動,讓真實的人與人之間的情感交流變得不再真實,人然對於情感的需求變成一種消費行為,軟體開發公司為了滿足消費者,在資本逐利的理念,將加速人際關係疏離,導致個人的心理問題,層出不窮的社會問題因此產生。

因此,許多科技倫理學者為了避免人類使用者不知道面前與之互動的對象是機器人或人工智慧,主張立法人工智慧應盡透明化義務。

這條法則強調機器人與演算法實施的結果,應有對應的實體或自然人對之負責,必要時負擔損害賠償責任。

人工智慧開發商在製造產品時不是只有考慮實用性、方便性,應在產品問世前不斷的測試其是否會造成人然不良的影響,需對自家的產品負完全的責任。

在消費端,人工智慧的擁有者或控制者也應應汽車一樣每個產品需標註所有者,人工智慧擁有者需負產負產品不當使用的負擔損害賠償責任。


人工智慧不再只是科技政策,是一種跨領域議題。人工智慧系統的建置,涉及多系統的改革與規範(例如,物聯網的人工智慧牽涉到隱私權、情感交流),若能提由規劃人工智慧的管理議題,並將其政策化及法治化,將有助於助技術的正向發展,讓技術與人類的人性價值調和,形成保護隱私及消費者的人工智慧準則,讓科技真正促進人類社會幸福的效果。


人工智慧是人嗎?從Google的LaMDA談如何與「牠」共存蔡宜臻 16 Jun, 2022



AI校園應用.全球首份指南出爐! 瑞典回歸傳統讀寫