亚洲精品揄拍自拍首页,久久国产综合91,久久人人做人人妻人人玩精品vr,久久综合久久无码

  • <rp id="b40sa"><menu id="b40sa"></menu></rp>
  • <table id="b40sa"><p id="b40sa"></p></table>

    <table id="b40sa"></table>

  • <progress id="b40sa"></progress>
      <var id="b40sa"><track id="b40sa"><ins id="b40sa"></ins></track></var>
      中國西藏網(wǎng) > 即時(shí)新聞 > 國內(nèi)

      警惕“AI招聘”背后的就業(yè)歧視

      發(fā)布時(shí)間:2023-09-13 11:18:00來源: 新京報(bào)

        ■ 社論

        在涉及機(jī)會公平、權(quán)益保障等領(lǐng)域,不能讓效率成為放大不平等的工具。

        “你的簡歷可能根本過不了人工智能(AI)這一關(guān)?!?/p>

        據(jù)《工人日報(bào)》報(bào)道,利用算法進(jìn)行“AI招聘”已成為職場中的一大新熱點(diǎn),如何規(guī)避AI算法可能帶來的歧視問題成為保障就業(yè)公平面臨的一個(gè)新問題。近日,上海市政協(xié)在一場重點(diǎn)提案督辦專題調(diào)研暨辦理推進(jìn)會上,就針對這一問題進(jìn)行了重點(diǎn)討論,旨在通過加強(qiáng)監(jiān)管、強(qiáng)化技術(shù)手段等,更好維護(hù)勞動者權(quán)益。

        當(dāng)下,大數(shù)據(jù)、大模型等AI算法,正不斷進(jìn)入各場景進(jìn)行探索應(yīng)用,互聯(lián)網(wǎng)招聘平臺也是其中之一。而利用AI技術(shù)進(jìn)行簡歷篩選和人力資源開發(fā),也被視為當(dāng)前招聘領(lǐng)域的發(fā)展趨勢。

        在勞動力就業(yè)市場加深依賴“AI”做決策的背景下,潛伏在AI算法背后的就業(yè)歧視等問題不容忽視。提前針對勞動者權(quán)益保護(hù)等關(guān)鍵議題公開討論,是公共政策應(yīng)對技術(shù)挑戰(zhàn)的應(yīng)有之策。

        從技術(shù)特征上看,AI短期內(nèi)無法代替自主決策,更多是以效率提升工具的方式在各行業(yè)發(fā)揮作用。但隨著AI不斷突破封閉場景,進(jìn)入人與社會互動的多個(gè)領(lǐng)域,相關(guān)的倫理、權(quán)益保護(hù)等復(fù)雜問題,也成了技術(shù)發(fā)展的潛在風(fēng)險(xiǎn)。

        以就業(yè)歧視來看,AI算法本身不具備歧視的動機(jī)與能力,但在本身就存在潛在就業(yè)歧視的環(huán)境之中,AI可能會成為部分偏見的放大器。AI提升效率的本質(zhì)邏輯,是結(jié)合數(shù)據(jù)積累和運(yùn)算能力,給予使用者以最符合其期待的答案。

        那么,倘若一個(gè)原本就帶有性別、地域、年齡等偏見的企業(yè)招聘者,再利用這一算法系統(tǒng)進(jìn)行簡歷篩選,那么客觀上就在流程中創(chuàng)造了一個(gè)“歧視信息繭房”:能被算法檢索和推送的,都是經(jīng)過偏見過濾后的簡歷。

        在這樣的情境之中,AI首先成了放大偏見的工具,效率提升的同時(shí),也提高了“就業(yè)歧視”的范圍與傷害。其次,AI幫助部分招聘者進(jìn)行了“道德回避”,即原本應(yīng)承擔(dān)倫理道德風(fēng)險(xiǎn)的個(gè)體,可以在這一過程中將全部的偏見歧視問題,歸結(jié)為“算法的錯(cuò)”。

        這就使得原本就相對隱形的“歧視”問題變得更加隱形。在共同的監(jiān)管和社會輿論壓力下,可能不會有任何一個(gè)AI工具公開將涉嫌歧視的標(biāo)簽作為“過濾選項(xiàng)”,但算法推薦“討好使用者”的技術(shù)特征,卻使得這一過程在實(shí)踐中難以完全避免。

        換言之,一個(gè)有嚴(yán)重就業(yè)歧視的招聘者,可能會訓(xùn)練出一個(gè)“更懂我的偏見和喜好”的算法模型。

        事實(shí)上,不只是在就業(yè)招聘領(lǐng)域,在多數(shù)處理“人的問題”的領(lǐng)域中,都可能存在類似問題。而旨在提升效率的科技進(jìn)步,不能以顛覆、挑戰(zhàn)人類社會賴以生存的倫理底線為代價(jià),尤其在涉及機(jī)會公平、權(quán)益保障等領(lǐng)域,更不能讓效率成為放大不平等的工具。

        引入外部監(jiān)督,同時(shí)用技術(shù)手段解決潛在問題,是解決技術(shù)進(jìn)步與引發(fā)社會問題之間矛盾的兩個(gè)主要手段。

        在上述的調(diào)研推進(jìn)會上,與會者也提出了讓勞動者參與算法治理、避免算法濫用等社會化監(jiān)管的建議。引入外部的充分監(jiān)督,尤其是讓相關(guān)利益主體參與其中,推動算法的公開透明,是值得效仿與鼓勵(lì)的做法。

        而從根本上看,可以進(jìn)一步討論,在相關(guān)的算法規(guī)則中納入對公平等價(jià)值觀的紅線規(guī)則。比如,在與使用者互動中,對疑似歧視的使用行為本身進(jìn)行定義、監(jiān)測和限制,甚至可以設(shè)置算法推薦的底線機(jī)制。

        再比如,在推薦規(guī)則之中,必須實(shí)現(xiàn)性別、學(xué)歷等比例,最大程度確保每一個(gè)求職者都有同等被看見的機(jī)會。

        防止技術(shù)對弱勢群體造成沖擊,既要未雨綢繆,又需在探索中反復(fù)測試技術(shù)手段的最優(yōu)解,這是擺在各行各業(yè)面前的新挑戰(zhàn)。

        唯有小心構(gòu)筑起公共政策的防火墻,讓AI既是社會生產(chǎn)力解放與提升的工具,同時(shí)也能成為維護(hù)社會公平正義底線的幫手,這才是科技進(jìn)步的長期價(jià)值與方向所在。

      (責(zé)編:陳濛濛)

      版權(quán)聲明:凡注明“來源:中國西藏網(wǎng)”或“中國西藏網(wǎng)文”的所有作品,版權(quán)歸高原(北京)文化傳播有限公司。任何媒體轉(zhuǎn)載、摘編、引用,須注明來源中國西藏網(wǎng)和署著作者名,否則將追究相關(guān)法律責(zé)任。