Home社會實踐環境AI時代:連比爾蓋茲都認為具革命性的技術,會帶來什麼隱藏風險?

AI時代:連比爾蓋茲都認為具革命性的技術,會帶來什麼隱藏風險?

►Facebook或Instagram的訊息推薦、YouTube或Netflix推薦觀賞影片、掃描臉部以解鎖手機,AI應用早已在我們日常生活中隨處可見。

►AI應用中四種常見的倫理和風險:演算法偏誤、相關技術或產品偏離原先使用目的、擁有善惡兩種用途,以及演算法設計不良或現有技術限制。

►近年來各國家皆制定有關AI發展的規範,台灣則在2019年制定「AI科研發展指引」,期望能改善AI發展帶來的問題與風險。

當談到人工智慧(artificial intelligence, AI)、也就是AI 時,讀者會想到什麼?是多年前由史匹柏(Steven Spielberg)導演的那部《A.I.人工智慧》(A.I. Artificial Intelligence)中那個一直盼不到人類母愛而令人心碎的機器人小男孩?還是由史密斯(Will Smith)主演的《機械公敵》(I, Robot)裡那些沒遵守機器人三大法則的機器人或中央系統?

或許未來有一天,人類真的可以設計出如電影中那些像人一樣的AI 系統或機器人。但目前為止,你常聽到的AI 其實既很厲害又很不厲害,為什麼呢?厲害的是它下圍棋可贏過世界冠軍,還能夠比放射科技師更快、更準確地辨識X 光片中疑似病變的細胞;但它不厲害的是,很會下圍棋的AI 就只能下圍棋,別說不會打牌,連撲克牌是什麼都不知道!而且每次學新事物幾乎都是打掉重練,得不斷做好多考古題才有可能學得會,不像人類通常教幾次就會舉一反三。不過,即使目前世界上的AI 都是這種只具備特定功能的「弱AI」(artificial narrow intelligence, ANI),但已經為這個世界帶來相當大的進步與便利。所以,以下要談的就是ANI 的倫理與風險。

圖片來源:Pexels


談到這種只具特定功能的ANI,讀者知道目前生活周遭有哪些事物有利用AI 技術嗎?其實Google上的搜尋資訊、Facebook 或Instagram 的訊息推薦、對智慧型手機喊「Siri 現在外面有下雨嗎?」等功能,或是以掃瞄臉部解鎖手機與進入大樓、YouTube 或Netflix 推薦觀賞影片,甚至是投履歷求職、銀行審核貸款申請等都常用到AI 技術,它早在我們日常生活中隨處可見。

但也正是如此,讓人們這幾年在使用AI 時,逐漸發現它可能造成的問題或傷害,以下簡單介紹常見的四種AI 應用可能造成的倫理問題或風險。

過時資訊而導致的演算法偏誤

第一種是演算法偏誤(algorithmic bias)。什麼是演算法偏誤?簡單來說就是AI 在某些群體的判斷準確率或預測結果上總是很差,導致結果可能對於此群體造成系統性的不利。但為何會造成演算法偏誤?常見原因有三項。

第一項原因是,建立AI 模型的研究資料集有偏誤,在性別、種族、社經地位等特徵上,沒有真實世界的人口分布代表性。例如數位裝置採用AI臉部辨識技術解鎖,原本是希望保護個人使用數位裝置的安全性,結果皮膚深的人卻常常遇到辨識失敗而無法解鎖。這通常是因為目前許多AI 模型都是以機器學習技術設計,而機器學習的主要特性就是從過去人類留下的大量資料中學習。當初提供電腦學習臉部辨識的圖片時,如果多數都是白皮膚而非黑皮膚、多數都是男性的臉而非女性的臉,那麼電腦在學習辨識人臉的準確率上,整體而言辨識男性白人就會比辨識女性黑人要高出許多。

第二項產生演算法偏誤的原因是建立AI 模型的研究資料集不只有偏誤,還反映現實社會中的性別、種族、社經地位等歧視。例如美國警政單位以過往犯罪資料訓練出獄後犯人再犯風險評估的AI 模型,那些資料不意外地有色人種的犯罪紀錄遠多於白人犯罪紀錄。然而,那些紀錄也反映美國社會長久以來對於有色人種的歧視,其中包含警察對於有色人種的盤查比例遠高於白人、法院對於有色人種的定罪比例及判刑嚴重程度也遠高於白人、警力通常被派往多黑人與拉丁裔人種居住的窮困社區盤查等。所以根據過往犯罪資料所訓練出來的AI 模型,不意外地也就會預測有色人種的再犯機率普遍來說比白人高。

第三項產生演算法偏誤的原因則是AI 學會了連系統開發者都沒有察覺到,潛藏在資料裡的偏誤。例如科技公司人資部門本來想借助AI 更有效率地篩選出適合來面試的履歷,所以挑選在該公司任職一定年資且曾升遷二次的員工履歷來訓練AI 模型。問題是,高科技公司向來男多女少,所提供給AI 學習的資料自然就男女比例相當不均。AI 也就學會了凡是出現偏向女性名字、嗜好、畢業學校系所等文字的履歷,平均所給的評分都比出現偏向男性等相關文字的履歷還低。

圖片來源:Pexels


但目前科技公司陽盛陰衰,是受到以往鼓勵男性就讀理工、女性就讀人文科系,或男性在外工作女性在家帶小孩等性別刻板偏見所影響。所以20 ~ 30年來許多人做出各種努力以消除這種性別刻板偏見所帶來的不良影響,政府也努力制定各種政策來消除這種不當的性別偏見,像是求才廣告基本上不能限定性別、公司聘雇員工應該達到一定的性別比例等。因此,訓練AI 的研究資料一旦隱藏類似前述性別比例不均的現象,訓練出來的AI 預測結果就彷彿帶有性別歧視,讓人們過往致力消除性別不平等的各種努力都白費了!

AI 技術應用的倫理問題與風險

除了演算法偏誤的問題外,第二種可能帶來的倫理問題或風險是AI 技術已經偏離原先使用目的,例如深偽技術(deepfake)原本用來解決圖片資料量不夠的問題,後來卻被利用在偽造名人性愛影片等。

第三種則是有些AI 技術或產品本身就可能有善惡兩種用途(dual-use)。例如AI 人臉辨識技術可用在保護數位裝置的使用者或大樓保全,但也可用來窺探或監控特定個人;無人機可以在農業上幫助農夫播種,但也可作為自動殺人武器;可用來搜尋如何產生毒性最少的藥物合成演算法,也能反過來成為搜尋如何產生毒性最強的藥物合成演算法。

最後,第四種是演算法設計不良或現有技術限制所導致的問題。在演算法設計不良方面,例如下棋機器人手臂可能因為沒有設計施力回饋或移動受阻暫停等防呆裝置,而造成誤抓人類棋手的手指且弄斷的意外。在現有技術限制方面,道路駕駛的交通標誌在現實中可能時常有老舊或髒汙的情況,儘管對於人類駕駛來說可能不影響判讀,但對於自駕車來說很可能就因此會嚴重誤判,例如無法正確辨識禁止通行標誌而繼續行駛,或是將速限35 公里誤判成85 公里等。但前述情況也有可能是自駕車網路、控制權限或物件辨識模型受到惡意攻擊所致。

圖片來源:Pexels

以上介紹了AI 常見的四種倫理問題或風險:演算法偏誤、相關技術或產品偏離原先使用目的、擁有善惡兩種用途,以及演算法設計不良或現有技術限制。但人們該如何減少這些倫理問題與風險呢?

培養人們使用AI的敏銳度

近五、六年來國際組織如聯合國教育科學及文化組織(United Nations Educational, Scientific and Cultural Organization, UNESCO)、歐盟(European Union, EU)、電機電子工程師學會(Institute of Electrical and Electronics Engineers, IEEE)或是國家、國際非營利組織皆紛紛制訂有關AI 發展的白皮書或倫理指引(ethical guidelines),甚至逐漸朝向法律治理的方向,如歐盟的人工智慧規則草案等。儘管這些文件所提出的倫理價值、原則或行為規範,看似各有不同,但經過這些年的討論與摸索,也逐漸匯聚出一些共識。

臺灣相較於前述國際文件來說,在制訂的時間上比較晚。2019年由當時的科技部(現改為國科會)制訂「人工智慧科研發展指引」,裡面提出的三項倫理價值以及八項行為指引,基本上涵蓋了前述各種國際AI 發展指引文件最常提及的內容。所謂三項倫理價值包含以人為本、永續發展、多元包容,行為指引則有共榮共利、安全性、問責與溝通、自主權與控制權、透明性與可追溯性、可解釋性、個人隱私與數據治理、公平性與非歧視性共八項。

未來當讀者看到又出現哪些AI 新技術或產品時,不妨試著評估看看是否有符合這三項價值及八項行為指引。若沒有,究竟是哪項不符合?不符合的原因是上述所介紹常見的四種倫理問題或風險的哪一種?若都不是,還有哪些倫理問題或風險過去被忽略了但值得重視?

AI 技術發展日新月進,在日常生活中的應用也愈來愈廣。但考量法律條文有強制性,在制訂時必須相當謹慎,免得動輒得咎,也很可能在不清楚狀況下反而制訂了不當阻礙創新發展的條文。再加上法律制定也必須有一定的穩定性,不能朝令夕改,否則會讓遵守法規者無所適從。因此可以想見,法令規範趕不上新興科技所帶來的問題與風險本來就是常態,而非遇到AI 科技才有這種情況。

人們若能培養自身對於AI 倫理問題或風險的敏銳度,便可發揮公民監督或協助政府監督的力量,評估AI 開發或使用者有無善盡避免傷害特定個人或群體之嫌,逐漸改善AI 開發者與大眾媒體常過度誇大AI 功能,但對於可能帶來的倫理問題或風險卻常閃爍其詞或避而不談的不好現象。

本文感謝工業技術研究院產業科技國際策略發展所支持。

本文經科學月刊授權轉載,原文刊載於AI 也會出差錯?使用人工智慧可能帶來的倫理與風險

實習編輯:陳念渝
核稿編輯:Xenia

- Supported by Google Adsense -

Most Popular

More from Author

AI時代真正該擔心的是什麼?

自OpenAI推出ChatGPT以來,人們不免也開始擔心與討論自己的工作會被AI取代。但職業更替在歷史上一直是必然的,更該擔心的是,AI如何控制我們的思想。

善用通訊軟體,替親子關係增溫

現今科技進步下幾乎人手一機,人與人的溝通也多靠著手機完成。雖然「通訊軟體」讓生活聯繫更方便,卻也好像讓溝通隔著螢幕少了點真實情感流動。究竟,LINE是讓親子溝通更順暢,還是阻隔更多?

少子化衝擊下,高房價問題有望趨緩嗎?

台灣房市在百年大疫的挑戰中逆勢成長。2021到22年中,全台灣共有35萬件房子被買賣轉。榮景另一邊,台灣的高等教育正面臨嚴峻的少子化。而少子化帶來的首購族減少,是否會影響房價,讓我們分析一下。

蕎希甜點:從創業的過程中找到自己喜歡的狀態

即使萌生轉職的想法,小心謹慎的性格使得她猶豫再三,擔憂著創業失敗。於是Chelsy先利用業餘時間充實自己的技術,開啟斜槓模式,在有工作的情況下,同時販售甜點。

- Supported by Google adsense -

大約翰全麥烘焙:用生活的步調證明「我們值得擁有更好的生活」

一份,對於愛、對於家庭 一份,對於堅持、對於努力 一切,從紐西蘭開始,學習體驗對於自然、健康、純淨的一切 2004年創立於宜蘭的大約翰全麥烘焙,帶著在紐西蘭的經歷回到家鄉,開啟了一段與生活達到平衡的經營之路。

影評人的職涯求生指南:專訪雀雀與張硯拓

自由業者加上文字工作者,兩種搭配聽起來就非常難賺錢的工作,卻是現在許多上班族轉職的嚮往之一。在影評人雀雀和張硯拓的經驗裡,成為一個專業的影評人,首先需要的可能是熱情與目標、仰賴的卻是長期的自律與堅持。更重要的是,是不是擁有能夠接受薪資浮動以及「不作不食」的覺悟。

隨著審美潮流變動的「創業」:專訪五分埔服飾業者佩筠

聽到「創業」,大多數人立刻會想到的是和網路數位相關的「新創產業」。但在五分埔,時尚服飾的創業幾乎奠基於台灣早期的「聚集經濟」,並隨著消費者和流行的審美不斷變動,是一種既傳統、又創新的產業,而佩筠一家的服飾經營故事,正是台灣近30年來的產業縮影。

從無到有,建構扎實世界觀:《人選之人》導演林君陽專訪

林君陽執導的《人選之人》上映不到一週就衝上台灣NETFLIIX收看榜第一名,並受到韓國議員的關注推薦。以「台灣選舉文宣幕僚」為全劇焦點的設定,但不如真實世界狗血的作品,到底如何成功吸引觀眾目光的呢?

因為我們是最佳夥伴,所以我們結婚(下)

出版《男人的愛情研究室:談一場不追不求的戀愛》及《自信力:13堂關於事業、情感、人際關係的自信課的Mr.P,將在本文和讀者分享自身的婚姻觀:當真愛來敲門時,不是從利益為考量,而是因為信任,而決定成為共度一生的夥伴。

因為我們是最佳夥伴,所以我們結婚(上)

本文筆者Mr.P,專為學員打造自信提升課程,以生活作為切入,帶學員在溝通上、關係中,找到屬於自己的定位。在人際之間有著獨樹一幟洞察力的Mr. P也分享了他對婚姻的見解,從常見的婚姻迷思切入,探討婚姻的目的。

AI時代真正該擔心的是什麼?

自OpenAI推出ChatGPT以來,人們不免也開始擔心與討論自己的工作會被AI取代。但職業更替在歷史上一直是必然的,更該擔心的是,AI如何控制我們的思想。

善用通訊軟體,替親子關係增溫

現今科技進步下幾乎人手一機,人與人的溝通也多靠著手機完成。雖然「通訊軟體」讓生活聯繫更方便,卻也好像讓溝通隔著螢幕少了點真實情感流動。究竟,LINE是讓親子溝通更順暢,還是阻隔更多?

《人選之人:造浪者》:「我們不要就這麼算了」面對傷痛,揭開疤

近期紅遍台灣的首部幕僚職人劇《人選之人—造浪者》以創新題材看見台灣政治方面的議題,角色們貼近生活與選舉時事,並展現了在選舉其中的衝突、合作等寫實生活的問題,而其中「我們不要就這麼算了」不僅是全劇的經典台詞,更帶出了觀眾共鳴的去看見社會狀況。

少子化衝擊下,高房價問題有望趨緩嗎?

台灣房市在百年大疫的挑戰中逆勢成長。2021到22年中,全台灣共有35萬件房子被買賣轉。榮景另一邊,台灣的高等教育正面臨嚴峻的少子化。而少子化帶來的首購族減少,是否會影響房價,讓我們分析一下。

向《關鍵少數》學習:放下恐懼,在AI浪潮中尋獲新機

當AI成為一種勢不可擋的浪潮,恐懼、排斥、焦慮都無法真正解決問題,唯有直面害怕的源頭,將焦點放在如何利用AI增強能力、如何更進一步掌握科技,人機共存的未來才得以展開。

打造一部自然真實的台劇:《人選之人》編劇簡莉穎、厭世姬專訪

簡莉穎擁有多年的劇場編劇經驗,而厭世姬是網路知名插畫家,兩人選擇以「文宣幕僚」作為編劇主題,表面上呈現出台灣獨特選舉文化的熱鬧、荒謬、緊湊,但實際在故事面則涵蓋了性別平權、家庭與工作的平衡、職場性騷擾、理想與務實的矛盾等等議題。這一切的緣起,都跟兩人的生活經驗有關。
Total
0
Share