商湯智能產業研究院創始院長田豐作為嘉賓發表了主題演講《AI倫理的“全球大變局”》。演講后,他接受了搜狐科技的專訪,人工智能及大數據高速發展之時,有關數據安全及AI倫理的討論也應運而生,對此,田豐在專訪中進行了詳盡解答。
田豐認為,人工智能是工具,工具一定取決于用途,以及用工具的人,使用者才帶有價值觀。“我們希望它是由好的人去使用,所以我們所謂的AI倫理,更多的是讓善的人去使用人工智能,而不是讓惡的人使用人工智能。”
而為了訓練人工智能,用戶數據被越來越多地收集,過程中發生不少隱私侵犯案例。田豐指出,我們不能因噎廢食,“人工智能會有各種各樣的風險,大家不去用它,不去研究它的技術,它永遠不會發展,這樣會給人類帶來產業的倒退,發展永遠是一個主題,不管是中國、美國、歐洲。”他表示。
實際上,人工智能技術發展的同時,隱私保護技術也在同步發展。比如2016年由谷歌提出的聯邦學習技術,是當下行業中實現隱私保護的熱門技術之一。田豐解釋該技術稱,“數據可用不可見。當我去判斷這個數據真假的時候,只回答一個yes還是no,不會告訴我底層的原數據,這是數據服務的原則。”
田豐介紹,除聯邦學習之外,隱私計算、生物特征數據的加密以及相應的一些匿名化處理,都是商湯智能產業研究院在各個場景中投入研發的安全保護技術。
以下為專訪實錄精編:
搜狐科技:您先向網友簡單介紹一下您所在的智能產業研究院以及商湯智能是否有一些比較有意思的研究跟大家介紹一下?
田豐:人工智能正在改變我們每一個人的生活和商業模式,商湯智能產業研究院重點研究人工智能的產業價值以及我們的社會價值,包括社會影響。這就是我們不斷去寫出各種各樣的智能產業的報告,數字化轉型的報告,以及全球AI政策方面的分析和倫理相關的研究的成果。
搜狐科技:一個老生常談的話題,技術是中立的還是帶有價值觀的,您怎么看待這個問題?
田豐:首先我們認為人工智能是工具,也是技術的前沿的代表。工具它一定是取決于你的用途,所以它的用戶,就是去用這個工具的人,一定是帶有價值觀的。
它有三個方向,科技一般來說,第一個是變成產業的工具,第二個變成一個科研的、前瞻性的理論方面的研究成果。所以第二個就是前沿科技的發展方向。第三個是避不開的話題,武器,二戰的時候,科技得到很快的發展,基本上這三個方向來演進的,最終誰去使用這樣的科技是帶有相應的價值觀。
搜狐科技:技術本身還是工具性質的?
田豐:對,我們希望它是由好的人去使用,所以我們所謂的AI倫理更多的是讓善的人去使用人工智能,而不是讓惡的人使用人工智能。
搜狐科技:用戶隱私保護一直是比較熱門的話題,大數據時代,數據的需求量是非常大的,為了訓練AI等等,有沒有哪些技術、規則,讓用戶的隱私得到更好的保護呢?
田豐:不管是中美歐,大家都對全民的隱私有非常好的重視,這會推動整個科技產業向前發展。人工智能的倫理保護,現在有一個宗旨,第一促發展,第二保底線。人工智能會有各種各樣的風險,大家不去用它,不去研究它的技術,它永遠不會發展,這樣會給人類帶來產業的倒退,第一發展永遠是一個主題,不管是中國、美國、歐洲。
第二個要保底線,大家像坐在一個船上一樣,任何一個地方漏水,這條船都會沉下去,從商湯科技來說,我們在人工智能倫理方面,做了大量的投入和工作。包括智能產業研究院,我們最主要的核心的任務就是在AI的倫理方面去做研究和聯合研發的團隊去做更多的技術投入。比如,現在說的聯邦學習,隱私計算,包括生物特征數據的加密和相應的一些匿名化的處理這都是我們不斷地去在不同的產業場景里面做各種各樣的安全保護和實踐。
搜狐科技:聯邦學習是現在行業內比較熱的一個技術,您能不能向大眾用簡單的話解釋一下,這是一個怎樣技術?能夠讓它做到保護隱私?
田豐:我們經常說有一句話,特別適合形容這個,數據可用不可見,當我去判斷這個數據真假的時候,只回答一個yes還是no,不會告訴我底層的原數據,這是數據服務的原則。
第二個,聯邦學習其實是多元的數據,甚至是多個商業主體的數據放在一起做融合方面的機器學習訓練和數據交叉的分析。但是這個環境是能夠保證到各方的數據的底層數據的安全的,從IT時代到云計算時代到人工智能的時代,有各種各樣的技術,保護多元數據的底層安全,上面能夠獲得更好的數據分析的成果,保險公司的數據和互聯網公司的數據交叉在一起,產生千人千面的保費數據,并不等于要公布每一個車主的隱私數據,這是從產業的角度去看聯邦學習實現的多商業主體數據之間的融合創新,既能獲得商業價值,又能夠保護每一方的數據資源不被泄露。
宋婉心:商湯在這方面投入很多?
田豐:是,我們和全球很多很多高校實驗室聯合去做人工智能的技術和倫理方面的研發,我們和上海交大合作成立了計算法學和AI倫理研究中心,借助高校和企業第一線的科研力量,大家共同去研究AI倫理和法律合規各方面的風險控制的技術與軟話題。
二維碼