據(jù)網(wǎng)易新聞消息,中國公布了第一套管理人工智能的道德規(guī)范,強調(diào)保護用戶權(quán)利和預(yù)防風險,以配合中國到2030年成為全球人工智能領(lǐng)導(dǎo)者的目標。
這一規(guī)范指出,人類應(yīng)該有充分的決策權(quán),并有權(quán)選擇是否接受人工智能服務(wù)——人類有權(quán)利要求退出與人工智能系統(tǒng)的互動,或在任何時候中止其運作。該文件由中國科技部于上月底發(fā)布。
該規(guī)范表示,其目標是“確保人工智能始終處于人類的控制之下”。
德國智庫墨卡托中國研究所的分析師Rebecca Arcesati說:“這是我們從中國看到的第一份關(guān)于人工智能倫理的規(guī)范。”
這一題為《新一代人工智能倫理規(guī)范》的準則由人工智能治理委員會起草,該委員會于2019年2月在科技部下成立。當年6月,該委員會發(fā)布了一套人工智能治理的指導(dǎo)原則,比新發(fā)布的規(guī)范短得多,也寬泛得多。
Rebecca Arcesati說:“ 中國最終選擇了一種重拳出擊的模式,國家正在非常認真地思考人工智能將帶來的長期社會轉(zhuǎn)型,從社會異化到生存風險,并試圖積極管理和引導(dǎo)這些轉(zhuǎn)型。他們的思維具有顯著的前瞻性。”
該文件概述了人工智能系統(tǒng)的六項基本原則,包括確保它們是“可控和可信的”。其他原則是改善人類福祉,促進公平和正義,保護隱私和安全,以及提高道德素養(yǎng)。
Rebecca Arcesati表示,新的人工智能準則是“向那些將整個商業(yè)模式建立在算法上的科技巨頭發(fā)出的一個明確信息”。
這一準則旨在讓用戶對他們與人工智能系統(tǒng)的在線互動有更多控制權(quán),其他國家也在努力解決這個問題。新文件中提到了數(shù)據(jù)安全、個人隱私和選擇不參與人工智能算法決策的權(quán)利。
文件說,預(yù)防風險需要發(fā)現(xiàn)和解決人工智能系統(tǒng)中的技術(shù)和安全漏洞,并提高人工智能產(chǎn)品質(zhì)量的管理和控制。
指南還禁止人工智能產(chǎn)品和服務(wù)從事非法活動,以及嚴重危害國家安全、公共安全或制造業(yè)安全的活動。文件指出,它們也不應(yīng)該損害公共利益。
2017年,中國制定了一項雄心勃勃的計劃,以超越美國,成為全球人工智能的領(lǐng)導(dǎo)者。該計劃的第一階段讓政府發(fā)揮主導(dǎo)作用,表示到2020年,國內(nèi)產(chǎn)業(yè)應(yīng)與領(lǐng)先的人工智能技術(shù)、應(yīng)用、道德準則和政策框架保持同步。
下一個目標是到2025年有重大的人工智能突破,并在十年后成為該領(lǐng)域的領(lǐng)先國家。
他補充說,鐵路將成為兩地聯(lián)系的主要交通要素。
{{item.content}}