咨詢熱線:021-80392549

我們能否“駕馭”人工智能

放大字體  縮小字體 發布日期:2022-11-11     來源:浙江宣傳     瀏覽次數:1461
       在科幻電影《銀翼殺手》中,一群與人類具有完全相同智能和感覺的“仿生人”冒險劫持太空飛船回到地球,人類主人公在追殺一位“仿生人”途中卻愛上了她,最后帶著她走向逃亡之路。

       隨著時間的推移,人類似乎正在走向科幻影視里那個“技術奇點”。曾經設想的種種人機關系、道德困境、倫理思辨、哲學難題,在不久的將來都可能一一上演。

       2016年,谷歌人工智能程序“阿爾法狗”戰勝世界圍棋冠軍李世石,這場“人機大戰”被視為人工智能發展史上的里程碑。悲觀者認為,AI取代人腦將是必然趨勢。

       在人工智能全面融入社會生活的當下,加強人工智能科技倫理治理,找到“人機共處”之道,是一個十分現實的問題。10日下午,世界互聯網大會烏鎮峰會舉辦人工智能與數字倫理分論壇,正是在這一背景下對數字倫理問題進行前瞻性探討。

2022年世界互聯網大會烏鎮峰會

       2022年世界互聯網大會烏鎮峰會——人工智能與數字倫理分論壇。圖源:中國網


       汽車為人帶來出行的便利,但它排出尾氣。萬物智能時代,人們每時每刻都會留下大量的“數字尾氣”,面部信息、指紋信息、定位信息、語音信息乃至用戶偏好等數據,會被永久或半永久保留下來,并加以索引、恢復、搜索和分析。

       人工智能的發展極大提升了數據處理能力,為我們的生活提供了許多便利,數據價值在日益凸顯。但與此同時,被互聯網記錄和存儲的個人信息,相對更容易被泄露和傳播。保護用戶隱私,保障用戶知情權、選擇權,成為社會各界的重要關切。

       比如,大數據成為商業平臺“讀心”的工具。只是因為你在茫茫信息流中多看了一眼,就可能被瘋狂推送“猜你喜歡”,連廣告推銷都能精準到人,許多人對此深有體會。當我們感嘆大數據如此“貼心”的同時,是否也有一種被“偷窺”的不適感。

       比如,大數據被用于操控輿論走向。2018年,特朗普聘用的一家政治AI公司,被曝非法將大約5000萬Facebook用戶的信息用于大數據分析,從而精準刻畫這些Facebook用戶的心理特征,并向他們推送定制廣告,甚至假新聞。扎克伯格因為這場可能影響大選結果的大規模數據泄露事件,遭到國會詢問。這再一次讓人們意識到,科技公司很可能將數據作為牟利的原材料,而非需要保護的個人資產。

       事實上,數據流通與隱私保護,從來不是“魚和熊掌”的關系。如何找到二者的平衡點,讓大數據既能更好服務公眾,又能防止侵犯個人隱私,全世界都在尋找破題之道。

       隱私計算就是為了解決這一問題而誕生的新技術。通過把大數據放進“盲盒”進行分析,將信息的所有權、管理權和使用權分離,從而充分保護數據和隱私安全,達到對數據“可用而不可見”的目的。

       我們看到,近年來,加強數據安全管理成為各國立法的重點。歐盟頒布了“史上最嚴”數據保護法案《通用數據保護條例》,我國出臺了《網絡安全法》《數據安全法》《個人信息保護法》等法律,數據安全的籬笆正在被逐步扎緊。

數據安全法

       2021年6月10日,十三屆全國人大常委會第二十九次會議通過了數據安全法。圖源:新華社

       對于人工智能來說,數據是石油,算法則是引擎。沒有算法,就沒法使用大數據。

       人工智能遇到的倫理問題,將越來越多地體現在算法無法解決的“兩難困境”中。

       比如,“電車難題”出現了新的表現形式:

       行人橫穿馬路,剎車來不及。如果不轉向,會撞死行人;如果轉向,乘客會死于翻車。自動駕駛汽車應該作何選擇?即使人工智能作出一萬個正確的決策,它是否應當為一次致命失誤而負責?

       必須看到,算法絕非不帶有任何價值判斷。當我們越來越依賴于算法決策、算法推薦、算法預測,就應更加警惕其背后的倫理問題。

       比如,“AI老板”的變相壓榨。今年8月,Facebook母公司Meta宣布使用算法解雇了60名合同工。裁員郵件未表明具體原因,只說這是算法評估的結果。這并非個例,亞馬遜很早就將人工智能運用于倉庫員工的管理中,通過人工智能自動化地跟蹤員工工作狀態,一旦發現倉庫員工長時間沒有接觸包裹或者處理速度變慢,就會記錄員工效率過低,甚至對多次不達標的員工“一鍵裁員”。

       比如,算法歧視和區別對待問題。在社交網站擁有較多粉絲的“大V”,在客服人員處理其投訴時往往被快速識別,并因此得到更好的響應。算法越來越多地進行“大數據殺熟”,消費頻率高的老顧客,在網上所看產品和服務的定價,反而要高于消費頻率低或從未消費過的新顧客。

       此外,安全可信問題也需要引起重視。在人工智能與數字倫理論壇上,一位業內人士指出,新一代人工智能是數據驅動的,是機器的自我學習,這就可能帶來系統的不夠魯棒、不可解釋、不夠可靠等問題。特別在諸如醫療、制造、金融等與社會生活息息相關的領域,機器學習模型作出錯誤預測的后果往往是難以接受的。

       清華大學人工智能研究院名譽院長、中國科學院院士張鈸表示,人工智能的發展必然帶來對倫理和傳統規范的沖擊。人們可以惡意地利用算法的脆弱性,對算法進行攻擊,導致基于該算法的人工智能系統失效,甚至做出相反的破壞行為。深度學習還可以用來造假,通過人工智能的深度造假,可以制造出大量逼真的假新聞、假視頻、假演說等,擾亂社會秩序,誣陷無辜的人。

       鑒于以上問題的存在,我們迫切需要新的數字治理方案。

       去年,我國通過了《關于加強互聯網信息服務算法綜合治理的指導意見》,要求在三年內逐步建立治理機制健全、監管體系完善、算法生態規范的算法安全綜合治理格局。這為維護社會公平公正和網民合法權益帶來了有力保障,算法的合理應用、人工智能的健康發展也是如此。

       就像兩只腳走路,總有一前一后?萍紕撔屡c倫理規則的制定,不可能齊頭并進,但兩者都不能放慢腳步。

       雖然我們無法預想未來的賽博世界有多么遼闊,但我們當下能做的,是在人工智能這片“新疆土”自由馳騁時,不忘套上法律法規和倫理道德的韁繩。

       習近平總書記指出:“面對各國對數據安全、數字鴻溝、個人隱私、道德倫理等方面的關切,我們要秉持以人為中心、基于事實的政策導向,鼓勵創新,建立互信,支持聯合國就此發揮領導作用,攜手打造開放、公平、公正、非歧視的數字發展環境。”

互聯網之光
2022年世界互聯網大會“互聯網之光”博覽會會場

       增進人類福祉,是人工智能技術發展的根本依歸。正因如此,公平公正、向上向善等人類社會的基本價值取向,仍然是人工智能必須堅守的原則。比如,最基本要求是安全可控;最終目標是服務于人而非超越人、取代人;終極理想是為人類帶來更多自由和可能。

       在政府層面,怎樣在法律法規、管理服務上加快破題,動態平衡科技創新發展和社會公平正義;在企業層面,怎樣避免技術濫用、不當采集用戶數據,以正向社會價值創造為目標;對我們每個人來說,怎樣成為數字化時代的主人,而不是被數字和算法驅使?

       筆者注意到,在論壇上,張鈸院士認為,人工智能的研究和治理都需要全世界不同領域的人員參與和合作,除從事人工智能的研發和使用人員之外,還需要法律、道德、倫理等不同領域人員的參與,我們需要明晰倫理道德的標準,什么是符合道德和倫理的?不同國家、民族團體和個人都有不盡相同的認識,因此需要全球范圍的合作,共同制定出一套符合全人類利益的標準。

       在一次次思維的碰撞和實踐的探索中,人類一定能找到“駕馭”人工智能的方法,讓AI成為人腦的有益補充,讓科技更好賦能人的美好生活。
工博士工業品商城聲明:凡資訊來源注明為其他媒體來源的信息,均為轉載自其他媒體,并不代表本網站贊同其觀點,也不代表本網站對其真實性負責。您若對該文章內容有任何疑問或質疑,請立即與商城(www.saskykittens.com)聯系,本網站將迅速給您回應并做處理。
聯系電話:021-31666777
新聞、技術文章投稿QQ:3267146135  投稿郵箱:syy@gongboshi.com
合作投稿:您好,歡迎光臨,我們將竭誠為您服務 展會合作:您好,歡迎光臨,我們將竭誠為您服務會員咨詢:您好,歡迎光臨,我們將竭誠為您服務廣告合作:您好,歡迎光臨,我們將竭誠為您服務軟文營銷:您好,歡迎光臨,我們將竭誠為您服務短視頻營銷:您好,歡迎光臨,我們將竭誠為您服務滬公網備31011402005898號
777米奇狠狠色俺来了,欧美高清中文字幕一区二区,tube18 中国少妇爽