避免製造偏見 谷歌圖像辨識準則

2

網路搜尋巨擘谷歌(Google)表示,為了盡可能消除歧視和偏見,該公司的人工智慧(AI)圖像識別技術,將不再區分人物的性別。
Google的雲端視覺應用程式介面(Cloud Vision API),可讓各種應用程式(app)和服務更容易辨識圖像中的物體;但該公司表示,AI技術雖然能夠快速辨識和標記影像,但基於可能產生偏見的疑慮,該公司的AI技術將不再依據圖像中人物的衣著判斷其性別。
Google表示:「僅透過衣著,無法辨識真實性別。更重要的是,據此為圖像中的人物標示性別,可能製造或增加偏見。因此,開發團隊決定去掉性別標示,如此一來也更能符合本公司的AI準則,特別是我們的第二項準則:避免製造及增加不公平的偏見。」
過去,Google的影像辨識曾引發爭議,將一名非裔人士標示成猩猩,引發軒然大波。鑒於人工智慧的應用,將對社會產生重大影響,Google已制定了11項道德準則,包括應該具備的特質以及不該包含的特質,希望能更有效避免偏見等狀況出現。
7大應具備的準則,分別是:應該對社會有益、避免製造或加強不公平的偏見、建立並測試安全性、對人類負責、納入隱私設計原則、要維持科學卓越的高規格、考慮AI的可能性與適用性。
不應包含的特質則有4項準則:不可包含可能導致或造成傷害的科技、不可包含造成人身傷害的武器或其他技術、不可違反國際公認規範或人權原則、不可包含為了監視而收集或使用資訊的科技。
Google強調:「AI演算法和數據收集,能夠反映、增加或減少不公平的偏見。我們認為,由於文化和社會不同,區分公平和不公平的偏見,並不容易。因此,我們會努力避免在各領域對人們產生不公平的影響,包括種族、民族、性別、國籍、收入、性取向、能力以及政治或宗教信仰。」
未來,Google的雲端視覺API中,人物將不再被標識性別,而是歸類為「人」。對於長期以來主張Google和其他公司在性別辨識有爭議的倡議者來說,這項決定是往正確方向邁進的一大步。

Google的AI圖像辨識將不再標註性別。 圖/取自網路
Google的AI圖像辨識將不再標註性別。 圖/取自網路

分享: