訂閱世界走走

《科技X愛X12則奇思妙想》:被人類偏見扭曲的AI

有必要把世界預設為白人男性,把所有女人和多數有色人種一併劃分進「非典型」類別嗎?

《科技X愛X12則奇思妙想》:被人類偏見扭曲的AI(圖/ Amy Elting @Unsplash)

有必要把世界預設為白人男性,把所有女人和多數有色人種一併劃分進「非典型」類別嗎?


兩性智力之主要差異在於,男人在各領域能比女人達到更卓越的層次,無論是高深思想、論理、想像皆然,或僅止於感官與雙手的運作。

——達爾文,《人類的由來及性選擇》(The Descent of Man, and selection in relation to sex),1871年

他馬的二元論(Fuck the Binary)

兩性。

世界上最基本的二元論。

AI降臨後,二元論會變嗎?或者會分得更清楚?

自有歷史文獻至今,在世界各地,性別權益大餅一直被切成比例失衡的兩塊,兩性能做的事和做法都不同,教育、就業、婚姻、法定權利、甚至基本公民權,都有高低之別。自從十九世紀末以來,對女性的歧見頻遭砲轟,備受威脅,這情況在二十世紀愈演愈烈。法律和社會革新對女性生活造成重大影響,尤以西方世界為最。然而,離消滅偏見的日子還早得很。對有色人種女性而言,種族歧視加性別歧視讓她們的日子苦上加苦。

目前,電腦算式愈來愈常介入日常生活,在性別和種族方面衍生的問題更加層出不窮。

電腦算式的「二元論」愈來愈常介入日常生活(圖/ Alexander Sinn @Unsplash)
電腦算式的「二元論」愈來愈常介入日常生活(圖/ Alexander Sinn @Unsplash)

問題不在人工智慧。在AI裡面,人造的不是智慧,而是被人類偏見扭曲的見解。AI本質上應是不偏不倚的一套工具,其中卻有偏見在作祟。AI不是男孩也不是女孩。AI生下來沒有膚色。AI根本不是被生出來的。

AI可以是一道門(portal),門外的天地是無關價值判斷的性別和種族,能讓男人女人都不受制於生物性別、出生地的刻板印象和預設。

目前,AI不是那一道能讓人類海闊天空的門(door),因為訓練AI用的數據組有問題。AI學習知識的範本來自數據組。眼看著AI大門就要敞開了,卻被有問題的數據組砰然關閉。

亞馬遜本來用一套運算法來徵才,而訓練這套算式的數據組全來自理工背景白人科技男的履歷表。用這套運算法能徵到那一類的人才,猜猜看吧。這一套徵才演算法用了四年多,到2018年才被亞馬遜淘汰。

一開始,數據組裡就缺乏多元化資料,這樣的數據組毛病百出。數據不多元,對AI就會產生迴聲室(echo chamber)效應,AI以同樣的數據設定參數,產生更多數據,本來就錯就偏頗的毛病變得更嚴重。

想在臉書上打廣告的用戶聽臉書宣布說,「我們試著展示給人們和他們最息息相關的廣告。」

業者想打廣告,通常會簡述主打哪個社群,例如愛玩樂高積木的兒童、重機車大叔、初創的小企業主等等。

但在2019年,美國東北大學和南加大分別對臉書廣告進行研究,設計了幾份徵才和購屋廣告,不設定專攻哪個性別、族裔、年齡、興趣,隨臉書依照傳統演算法發送。臉書依既定刻板觀念,分性別種族來發廣告給用戶看。結果,看到超市結帳員和祕書徵才廣告的用戶有百分之八十五是女性。看到計程車司機工作廣告的用戶有百分之七十五是黑人男性。購屋廣告給誰看呢?百分之七十五是白人。

視覺上粗獷的廣告主打男性。體貼、窩心、大自然的廣告發給女性看。

臉書曾設有自動影像分類機制,用以將不同廣告導向不同的用戶子集。(圖/ Timothy Hales Bennett @Unsplash)
臉書依既定刻板觀念,分性別種族來發廣告給用戶看。(圖/ Timothy Hales Bennett @Unsplash)

這項研究的結論:「臉書設有自動影像分類機制,用以將不同廣告導向不同的用戶子集。」

對此,一語應萬評的臉書當然回應:臉書正進行「重要改革」中。

是嗎……謝了。

這項研究暴露的真正問題在於,臉書等等的演算法會強化並引申既有的偏見,接著,行銷算式接手,偵測廣告上能誘人點擊的數據,判定多數女人會看廣告A,多數男人會看廣告B,卻沒考慮到一個事實:廣告A發放對象是女多於男。由此衍生出的數據組有毛病,卻被用來訓練另一套AI,繼續誤導。

慘就慘在,人類似乎有個癮頭,老戒不掉性別種族的刻板印象。二元論(我是男生/妳是女生/我是黑人/你是白人)自古以來導致人間無數傷痛和苦難,沒必要的傷痛和苦難。

美國麻省理工媒體實驗室電腦學研究員喬伊.布拉姆維尼(Joy Buolamwini)成立演算法正義聯盟,因為身為研究生的她發現,臉部辨識軟體被灌的資料裡少有黑皮膚。機器學習當中帶有偏見,她稱之為「程式凝視」(coded gaze),她有意消滅這種偏見。

不只是「凝視」。車上語音辨識系統比較聽得懂標準腔和偏男性、較深沉的嗓音。建造語言辨識系統所用的數據組常引用TED talks演講文。而TED的講者有七成是白人男性。

建造語言辨識系統所用的數據組常引用TED talks演講文中,有七成是男性演講(圖/ Product School @Unsplash)
建造語言辨識系統所用的數據組常引用TED talks演講文。而TED的講者有七成是白人男性。(圖/ Product School @Unsplash)

這很重要,因為日常生活愈來愈常用到語音辨識。據估計,到了2023年,商用語音的市值將衝到八百億美元。

商用語音有必要分男女嗎?有必要把世界預設為白人男性,把所有女人和多數有色人種一併劃分進「非典型」類別嗎?

為什麼不把LGBTQQIP2SAA全歸進非典型,以代表女同志、男同志、雙性戀者、變性者、游移不定者、酷兒、間性人(intersex)、泛性者、雙靈者、中性人、無性人?為什麼不包括異性戀?因為我把所有類型的恐同症或性認同歧視全看作性別歧視。性別歧視總歸一個觀念:男人「應該」怎樣,女人「是」什麼樣的人。

跨界會搞壞二元論。雙性戀者甚至會被一些同志撻伐。

性別歧視總歸一個觀念:男人「應該」怎樣,女人「是」什麼樣的人(圖/ Jakayla Toney @Unsplash)
性別歧視總歸一個觀念:男人「應該」怎樣,女人「是」什麼樣的人。(圖/ Jakayla Toney @Unsplash)

性別認同,這議題讓有些人摸不到頭緒,乃至於目前變性人成了標靶。生物特質不是認同。性取向不是認同。我覺得,變性人是被帶進礦坑裡的金絲雀,對世人預示當前自我定義的風向。

自古至今都一直有變性人,接受度時高時低。有些北美原住民族文化和儀式中有一種第三性人,現代通稱為雙靈者。神話裡,有某種人屬於變「形」人,從「特質」的角度去看待才比較容易理解他們。

不列入單一項目。不屬於單一性別。

本文為《科技X愛X12則奇思妙想:從吸血鬼到人工智慧,我們是在前進還是倒退?》書摘,經潮浪文化授權刊登,標題與內文小標經《世界走走》編輯改寫。

《科技X愛X12則奇思妙想》:被人類偏見扭曲的AI(圖/潮浪文化)
《科技X愛X12則奇思妙想:從吸血鬼到人工智慧,我們是在前進還是倒退?》書封。(潮浪文化提供)

和我們一起走走
我們歡迎各種形式的合作可能,歡迎您將各種合作想法,EMAIL 至以下信箱:hello@sehseh.world

我們知道你想了解更多

May 19, 2023

朱家安:給女孩玩的樂高是什麼樣子?(Pixabay)
朱家安:「給女孩玩的樂高」是什麼樣子?為何我們不該把玩具貼上性別標籤

家長真的知道自己的小孩喜歡什麼嗎?還是說,他們只是照著性別和刻板印象的組合把小孩分類,就跟他們把玩具分類一樣呢?「...

May 19, 2023

Jun 28, 2023

清大資工系教授陳宜欣專精人工智慧、同時也是三寶媽。(受訪者提供,世界走走後製)
她是AI學者,也是3寶媽:理解AI後,我更知道怎麼教小孩

陳宜欣之所以投入人工智慧領域,其實是想理解「人」。編按:過去,許多人認為人類的創造力是人工智慧模仿不來的特質。但近期生成式 AI...

Jun 28, 2023

Jul 4, 2023

AI來勢洶洶,將如何影響女性的工作呢?(世界走走製圖)
妳不可不知的AI時代職場趨勢》女性「這特質」不怕失業,但男女薪資差距未必能縮小

女性在社會化過程中被鼓勵培養的特質:溫柔、敏鋭、同理心,過往在職場中不那麼受到讚揚,如今卻最有機會在技術洪流中不被沖散。6月26日...

Jul 4, 2023