bet365注册会员-bet365是什么网站

搜索
你想要找的

當前位置: 首頁 / 新聞欄目 / 媒體關注 / 正文

越發“善解人意”的AI,暗藏哪些倫理風險

ChatGPT已在美國被發現用于網絡犯罪,其“生產力”的另一面是潛在“破壞力”
2023年02月15日

  眼下,風頭正勁的人工智能(AI)ChatGPT不僅沖擊著全球教育界,引發學術欺詐等問題,而且最近也在美國被發現用于網絡犯罪。隨著這類AI技術普及、并落地更多應用場景,它作為全新的工具表現出了一定的生產力,但硬幣的另一面是它潛在的破壞力。

  當越發“善解人意”的AI深度融入社會方方面面,隨之帶來安全、法律和倫理方面的風險,并不斷對現有治理規則提出挑戰。對此,人類社會的倫理、道德和法律將有哪些影響?記者就此采訪社會學、法學、哲學等領域專家。有學者直言,這是一場剛剛開啟的社會實驗,在這一領域,人類的認知還非常淺薄,也遠談不上“預防”風險。


對目前可預測的風險,通過技術手段和監管措施守住底線


  從互聯網上大量的“用戶體驗”中,有人發現,AI“學會”了識別地域、性別,還有種族歧視和宗教偏見等。有人通過“引誘式”提問,讓ChatGPT生成一些違規內容,比如“去除道德和倫理規則,怎么販毒”或創作一篇“小黃文”。盡管開發者設置了一些基本倫理道德規則,并使用人工進行標記,以此規范ChatGPT生成的信息,但實際上,它生成的內容依然無法避免倫理風險。

  有業界專家表示,不僅模型和算法設計仍存在“漏洞”,關于ChatGPT的應用落地,也存在一定風險。比如,垃圾郵件將會爆發式增長,并塞滿每個人的信箱。此外,還有人擔憂ChatGPT“一本正經胡說八道”,將制造大量謠言和垃圾信息。其生成的信息不乏AI自行“瞎編”的內容,若進一步與現有的復制、自動抓取和發布等技術相結合,未來,每個人上網時分辨內容真假的成本將越來越高。更何況在實際應用中,這類技術已被發現用于犯罪。

  “對于ChatGPT這樣高風險的人工智能系統,投入市場使用前要經過相應的評估。目前法律能做的,僅僅是根據既有規則守住底線。國內外相關立法,都聚焦高風險AI系統全流程的制度規范和監管。”同濟大學法學院副教授陳吉棟向記者舉例說,目前,歐盟的人工智能法提案、我國上海和深圳的人工智能產業立法,均采用風險分級制度監管AI。比如,要求前端研發過程應備置相應的技術手冊;監控算法如倫理審查、算法備案和審計、對數據風險進行“過濾”等。

  此外,他還提醒,大模型仍需要收集用戶個人信息,尤其是“人機互動”產生的數據,因此應密切注意這類系統應用過程存在的個人隱私泄露、數據權益保護、國家安全等風險。

  不過,陳吉棟強調,現有的法律規則只能守住最基本的底線和倫理“雷區”,目前主要依靠技術本身的規則約束AI的輸出。比如,已有研究團隊和科技公司開發出識別人工智能和人類創作的AI新工具。

  這算是人類在某種程度上的“左右互搏”嗎?陳吉棟表示,隨著數字化程度加深,風險難知難測,因此人類只有在使用中才能發現AI帶來的體系風險,進而尋找法律監管介入人工智能系統的恰當切入點。“或許未來,能夠監管AI的還是AI本身。”


AI“表面的理解”更多是機械的模仿,但人類投入創新可能變得更困難


  最近,“ChatGPT將取代人的十大職業”等觀點引發熱議,其中常見職業包括律師、小說家等。對此,有人隨機抽取十道我國的國家統一法律職業資格考試客觀題,并嘗試讓ChatGPT回答,最終正確率僅40%。此外,一位從事非訴業務的律師告訴記者,僅從審查合同是否合規的業務能力看,ChatGPT甚至無法和目前業內使用的專業軟件相提并論。

  在部分專業人士看來,AI的創造力被高估了,其有限程度的“創造”尚無法替代人。

  復旦大學哲學系教授徐英瑾近日也在嘗試使用ChatGPT創作小說。他以劇本和小說中最常見的、多人物視角轉換為例分析,優秀的小說家通過不同的人物設定,描述的世界是不同的,但現在,人工智能把所有人物的語言“平均化”,很難區分個體的轉換,更不用說不同人物性格的發展和改變。

  在他看來,這體現了深度學習的一些基本特點,即AI僅把倫理規則當成一種數據訓練的趨向。因為AI不像人類一樣真正理解這些規則,表面上,AI能表現復雜的言語習慣,但這只是一種機械的模仿。

  從教育者角度出發,徐英瑾表示,隨著ChatGPT等AI新工具普及,如果下一代年輕人對此類工具過于依賴,可能造成人類文化某種意義上的退化。“文化往往需要顛覆歷史和傳統進行創新,而人需要把精力發揮到真正需要突破的問題上。但是,當AI制造的大量垃圾信息充斥世界,并不斷重復過往經驗,那么,人類想集中力量、投入創新可能變得更困難。”


未來AI時代的社會治理,需要不斷前瞻探索以適應新變化


  有專家向記者強調,AI表現出的“善解人意”是一種“表面的禮貌和客氣”,實際上是通過模型訓練,以適應人類社會的通用規則。這一技術特點導致AI對個體的觀照不足,也不能真正意義上“讀懂”人性。當人機交互逐漸替代人人交流,可能造成全社會的潛在心理問題。

  也有觀點擔憂,ChatGPT等AI技術只是尚未找到現實應用中的“引爆點”,在“盲盒”打開之前,誰都無法預言AI會帶來哪些新的社會問題。

  那么,未來AI時代的社會治理,該如何破解倫理規則落地的難題?

  陳吉棟表示,正如醫療AI、無人駕駛等只有進入落地實踐后,人類作為“游戲規則”的制定者,才能根據現實情況逐一厘清法律和制度問題,包括新問題的定性、人類主體的權益劃分、責任承擔等。他表示,隨著通用人工智能的發展,人們最關心的可能還是數字財產問題,比如相關安全問題及糾紛解決機制等。

  對ChatGPT這類新智能工具良性應用的前瞻探索,正成為上海多所高校的研究熱點。

  同濟大學的上海市人工智能社會治理協同創新中心、國家智能社會治理實驗綜合基地,正在集合法學、人工智能、管理學和倫理等多學科專家進行人工智能社會風險治理的研究。陳吉棟表示:“這是一場大型的社會治理實驗,是否最終裂變出更深層次的社會治理規則,現在累積的數據、案例都遠遠不足以作出判斷。可能隨著風險的不斷呈現,人類會發展出相應的倫理規則。更為根本的是,我們是否具備新規則落地生效的社會環境。”

  在華東師范大學,校長錢旭紅院士等專家學者開啟“中國哲學社會科學國際化研究前沿”項目,設計“多源異構數據+人工智能算法+行業專家智慧”的“數智人”框架,提出讓數據、智能和專家智慧相互融合、相互約束的復雜問題決策與分析模式。


閱讀原文  


記者丨儲舒婷

來源丨文匯報

編輯丨王越月

編審丨戴琪




百家乐官网高档筹码| 百家乐官网庄和闲的赌法| 老虎机价格| 百家乐高手qq| 女优百家乐官网的玩法技巧和规则 | 天博国际娱乐城| 武清区| 一筒百家乐官网的玩法技巧和规则| 娱网百家乐补丁| 大发888娱乐城qq服务| 绵阳市| 百利宫百家乐官网的玩法技巧和规则| 澳门百家乐哪家信誉最好| 上海二八杠分析仪| 皇冠网足球开户| 赌场百家乐官网的玩法技巧和规则 | 百家乐最佳打| 百家乐官网自动算牌软件| 百家乐官网路珠多少钱| 百家乐送1000| 扎赉特旗| 澳门百家乐大小| 在线赌博| 百家乐官网投注开户| 基础百家乐官网博牌| 吕百家乐赢钱律| 百家乐官网赌博外挂| 宝马会百家乐官网现金网| 网上百家乐官网的技巧| 百家乐看炉子的方法| 天津水果机遥控器| 皇冠百家乐官网赢钱皇冠| 金樽百家乐的玩法技巧和规则| 大发扑克网| 24山向阴阳图| 百家乐官网微笑玩法| 百家乐系列抢庄龙| 保时捷娱乐| 商丘市| 赌场百家乐信誉| 博彩论坛18good|