麻豆国产精品免费视频,午夜性开放视频久久…爽,青青青国产在线观看免费2020,综合在线欧美精品第1页

  • <center id="gac44"></center>
    <code id="gac44"></code><dfn id="gac44"><dl id="gac44"></dl></dfn>
    <menu id="gac44"><abbr id="gac44"></abbr></menu>
  • <rt id="gac44"><dl id="gac44"></dl></rt>
  • 首頁 > 延邊科協(xié) > 科普宣傳 > 人類更用心,AI不“偏心”

    手機(jī)版百姓熱線
    空白

    人類更用心,AI不“偏心”

    2021年06月28日 09:33

    “人工智能很單純,復(fù)雜的是人”——在探討人工智能(AI)的公平性時(shí),香港科技大學(xué)講席教授、微眾銀行首席AI官楊強(qiáng)巧妙地化用了一句流行歌詞。他認(rèn)為,AI技術(shù)發(fā)展中出現(xiàn)的諸多公平性問題,其實(shí)是映射了人類社會(huì)中本已存在的歧視和偏見。

    在未來論壇近日發(fā)起的“AI 向善的理論與實(shí)踐”論壇上,多位業(yè)內(nèi)專家圍繞“AI公平”這個(gè)話題開展了深入討論。

    AI跟誰學(xué)到了“偏心”? 

    與人類社會(huì)相似,在AI的世界里,偏見與不公隨處可見。

    2014年,亞馬遜公司啟動(dòng)了一個(gè)通過AI技術(shù)開展自動(dòng)化招聘的項(xiàng)目。這個(gè)項(xiàng)目完全基于求職者簡歷提供的信息,通過AI算法進(jìn)行評(píng)級(jí)。然而,第二年亞馬遜便意識(shí)到這個(gè)機(jī)器腦瓜并不像想象中那樣公平公正——它似乎在歧視女性!當(dāng)一份簡歷中出現(xiàn)“women”等字眼時(shí),在打分上就會(huì)吃虧。

    亞馬遜分析,這是因?yàn)樗麄兪褂昧诉^去10年的歷史數(shù)據(jù)來訓(xùn)練這個(gè)AI模型,而歷史數(shù)據(jù)中包含對(duì)女性的偏見。之后,亞馬遜便不再用這個(gè)算法來進(jìn)行招聘。

    “AI的公平性問題,本質(zhì)上并非來源于技術(shù)本身,而是來自人心,也就是說,其本源是社會(huì)的公平性?!敝锌圃河?jì)算所研究員,中科視拓(北京)聯(lián)合創(chuàng)始人山世光說。

    他解釋道,AI技術(shù)從算法和系統(tǒng)的設(shè)計(jì),走向社會(huì)的應(yīng)用實(shí)踐,這個(gè)過程涉及方方面面的人,在很多環(huán)節(jié),都有可能有意或無意地引入歧視和偏見?!耙源蠹易钍煜さ慕】荡a為例,這個(gè)產(chǎn)品在為防疫做出重大貢獻(xiàn)的同時(shí),也因?yàn)榻o老年出行帶來困難等現(xiàn)象,引起了很多爭議。這就是目標(biāo)人群設(shè)定不夠周全,而引入了潛在的歧視風(fēng)險(xiǎn)?!彼f。

    除了不同人群間的公平問題,AI公平還涉及到開發(fā)者和使用者(通常是企業(yè)和用戶)之間的不平等問題。

    清華大學(xué)法學(xué)院院長申衛(wèi)星補(bǔ)充了一個(gè)生活中非常常見的案例。大量APP在使用時(shí)會(huì)出現(xiàn)一個(gè)“知情同意”的選項(xiàng),這個(gè)知情同意書往往少則上千字,多則上萬字,大量的信息讓消費(fèi)者無力長時(shí)間閱讀,只好選擇同意,否則只能退出。

    “過去我們對(duì)知情同意格式條款的主要要求是‘告知要充分’。但現(xiàn)在更常見的問題反而是‘告知過量’,或者叫信息超載?!鄙晷l(wèi)星說,“過度冗余的格式條款,其實(shí)恰恰剝奪了消費(fèi)者的自我決定權(quán)。這是一種非常隱蔽的不公平”

    雙刃劍的正確打開方式? 

    AI技術(shù)與社會(huì)公平的關(guān)系,比想象中更為復(fù)雜。

    搜狗公司CEO王小川指出:“總體來講,AI技術(shù)的高度發(fā)展對(duì)公平性的提升是有利的。首先在技術(shù)的加持下,教育、醫(yī)療等重大領(lǐng)域在資源供給的數(shù)量和質(zhì)量上都會(huì)有極大提升,供給側(cè)的繁榮有助于緩解社會(huì)資源分配不均;其次,隨著大數(shù)據(jù)的連接,人們有機(jī)會(huì)在全局層面上提煉主要矛盾,探討公平問題,進(jìn)而達(dá)成社會(huì)共識(shí)?!?/p>

    但這也是一柄雙刃劍?!盎ヂ?lián)網(wǎng)發(fā)展、信息發(fā)展和AI發(fā)展對(duì)于公平性提供了更好的抓手,但也會(huì)帶來更多新的挑戰(zhàn)?!蓖跣〈ㄕf,“其中一個(gè)比較敏感的問題是,在機(jī)器判斷越來越準(zhǔn)確之后,公平定義的矛盾將更加突出。比如在金融貸款、商業(yè)保險(xiǎn)等領(lǐng)域,如果對(duì)用戶進(jìn)行個(gè)人畫像并作出判斷后,拒絕向該用戶提供服務(wù),如此是否公平?此外,隨著AI技術(shù)進(jìn)步帶來的資源極大繁榮,很容易產(chǎn)生‘馬太效應(yīng)’,導(dǎo)致資源集中在金字塔尖上,拉大社會(huì)差距。這是人類歷史上不斷出現(xiàn)的問題,值得警惕。”

    對(duì)此,山世光則強(qiáng)調(diào):“作為AI從業(yè)者、開發(fā)者、運(yùn)營者的我們,一定要意識(shí)到:我們所開發(fā)的AI既可能被用來促進(jìn)社會(huì)公平和消除歧視,也有可能被濫用,甚至助紂為虐?!?/p>

    那么,人類應(yīng)該如何揮舞這柄雙刃劍,讓它向善而不作惡呢?山世光說:“問題的最終解決不僅僅依賴技術(shù)的進(jìn)步,更依賴于技術(shù)專家和社會(huì)學(xué)家兩個(gè)群體的順暢溝通,深度對(duì)話?!?/p>

    為了更公平的AI而奮斗 

    論壇上,專家們介紹了產(chǎn)業(yè)界、學(xué)術(shù)界、法律界等在AI公平性上做出的種種努力。

    “人們開發(fā)了很多工具,包括分析數(shù)據(jù)集形態(tài)和質(zhì)量的工具,能讓開發(fā)者、工程師清楚地看到他們用于訓(xùn)練的數(shù)據(jù)特征的分布,比如性別、年齡等等,至少要滿足統(tǒng)計(jì)學(xué)意義上的合理分布,從而減少潛在的偏見;還有分析算法模型的工具,可以對(duì)模型的公平性進(jìn)行評(píng)估,并做出相應(yīng)糾偏和優(yōu)化;此外還有幫助開發(fā)者對(duì)決定模型輸出的關(guān)鍵數(shù)據(jù)特征進(jìn)行探索的工具;以及公平性約束條件下的算法訓(xùn)練工具等?!比A為公司AI治理首席專家段小琴說。

    “AI公平性的一個(gè)重要方向是數(shù)據(jù)的可獲得性和可使用性?!睏顝?qiáng)說,他在論壇講座中強(qiáng)調(diào)了“聯(lián)邦學(xué)習(xí)”在抵抗數(shù)據(jù)“馬太效應(yīng)”、促進(jìn)AI公平性方面的作用,“我們研究聯(lián)邦學(xué)習(xí),一個(gè)更大的目標(biāo)是實(shí)現(xiàn)‘?dāng)?shù)據(jù)可用不可見’,其特征是:隱私保護(hù)、權(quán)益保障、缺陷保障以及確權(quán),而確權(quán)和權(quán)益保證需要通過經(jīng)濟(jì)學(xué)來完成?!?/p>

    申衛(wèi)星則指出:“在這個(gè)問題上,企業(yè)和技術(shù)的自律,要與以法律為代表的‘他律’相結(jié)合,未來相關(guān)領(lǐng)域的立法應(yīng)該是三駕馬車——技術(shù)、法律和倫理——并駕齊驅(qū),技術(shù)是根本、法律是保障、倫理是社會(huì)基礎(chǔ)?!?/p>

    他進(jìn)一步補(bǔ)充道:“就AI技術(shù)立法問題而言,法律既要解決形式上的公平、機(jī)會(huì)上的公平和程序上的公平,還要實(shí)現(xiàn)形式公平和實(shí)質(zhì)公平的統(tǒng)一。個(gè)人建議,應(yīng)在時(shí)機(jī)成熟的時(shí)候推出綜合立法。在這個(gè)過程中,既要考慮對(duì)個(gè)人數(shù)據(jù)的保護(hù),也要考慮保護(hù)和創(chuàng)新之間如何形成平衡?!?/p>

    [ 本作品中使用的圖片等內(nèi)容,如涉及版權(quán),請(qǐng)致電。確認(rèn)后將第一時(shí)間刪除。聯(lián)系電話:0433—8157607。]

    延邊信息港 / 延邊廣電客戶端
    標(biāo)簽: AI  公平性  公平  技術(shù)  社會(huì)