
從推薦您需要在購物網站上購買的東西,以便在社交網絡上成為朋友,人工智能(AI)已成為我們生活中的指導力量。
然而,這項技術的重要性也使人們意識到已經成為其中的一部分的偏差,提高了技術公司的壓力來彌補。
例如,谷歌現已建立了一個外部咨詢委員會,以幫助科技巨頭以道德和負責任的方式發展AI技術。
電子商務巨頭亞馬遜本月宣布,它與國家科學基金會(NSF)合作,在未來三年內籌集了高達1000萬美元,專注于AI公平的公平。
“我們相信我們必須與學術研究人員密切合作,開發創新的解決方案,以解決公平,透明度和問責制的問題,并確保自然副總統Natarajan Prem Natarajan的Data Don”T的數據中的偏差在亞馬遜的Alexa Ai集團在博客帖子中寫道。
偏見的自動化工具可以將弱勢群體進一步推到邊距。例如,想象一下,考慮婦女不太智能的AI招聘工具。如果作業門戶雇用這樣的工具,則更有可能向雇員推薦雄性計劃雇用新人的組織。
我們在我們的設備上擁有的AI助手呢?如果谷歌助理,SIRI,或者對于那件事alexa,以女性的聲音談論,它可以讓我們的孩子相信女性 - 不是男人 - 應該是助理。
根據調查新聞網站Propublica的一份報告,在美國法院客房常用的一個風險評估工具被發現推薦對白人的懲罰比黑人。
因此,使AI無偏見成為人類自由至關重要,并確保所有和戰斗歧視的平等機會。但為什么AI工具顯示偏見并反映我們社會中已存在的偏見?
這部分是因為構建AI的社區沒有充分反映世界的普及。根據2018年世界經濟論壇報告稱,全球只有22%的AI專業人士是女性。
“如果AI系統僅由所有男性,所有亞洲人或所有高加索人建造的一個代表性組;那么他們更有可能創造偏見的結果,”Mythreyee Ganapathy,Director,Programe Management,Cloud和Enterprise,Microsoft告訴IANS。
“將用于培訓AI模型的數據集需要由Perse組數據工程師組裝。一個簡單的例子是用于訓練語音AI模型的數據集,主要針對成人語音樣本無意中排除兒童,因此模型無法識別兒童的聲音,“她指出。
使AI不一定可能不會最終使世界各地展出展會,但這可能是朝著偏見和創造平等機會的重要一步。