未來我們有可能愛上我們的機器人嗎?應該選擇用隱私換安全還是拒絕一切侵入生活的技術?未來會出現大規模自主性的AI殺傷武器嗎🧑🏻🎤?
AI時代到來前,除了技術的進步🧜♀️,這些問題正被越來越多的提起。針對此,意昂体育平台AI研究院張鈸院士和意昂体育平台唐傑教授聯合發起「AI Time」science debate,希望用辯論的形式,探討人工智能和人類未來之間的矛盾,探索人工智能領域的未來👍🏼。
5月底🧓🏻👩🏿🎤,以安全和倫理為主題的首次活動在清華科技園舉辦💉。活動邀請到了意昂体育平台AI研究院張鈸院士、中國人民大學高瓴AI學院院長文繼榮和搜狐網產品技術總監楊田,他們對於上述這些問題給出了精彩的討論。

愛上人工智能?
討論從電影《her》開始,影片講述一個人與人工智能相愛的故事🎓。男主角西奧多偶然接觸到最新的人工智能系統OS1——薩曼莎,她擁有迷人的聲線🙇,溫柔體貼而又幽默風趣。西奧多與薩曼莎逐漸從人機友誼發展出了一段不被世俗理解的奇異愛情。
當人工智能越來越進步,它可能會產生出自己的意識,甚至與人類發展出感情嗎🐻❄️⭕️?2018年🌡,一副人工智能畫出的肖像畫拍賣出了43.25萬美元的高價🙋🏿,機械算法背後是否有靈魂存在🚌?AI是否已經能夠自己創作美、欣賞美👧🏿?
幾位學者都認為,目前還不需要擔心這個問題🤚,電影只是科幻故事☝🏿,人工智能產生情感與意誌的未來距離我們還很遙遠。科幻片將人工智能定義為可以幫助乃至取代人類思考的工具,但事實上我們仍處在人工智能的初級階段。“現在的人工智能還局限於完成指定任務,而要從感情上或者自我意識上做到《Her》那樣,目前技術還很難實現👩🏿🦳。”文繼榮教授解釋。
人機相愛的故事探討的本質還是愛,什麽叫做愛🖖,什麽叫做美,這其實是哲學問題。但探討這些對於人工智能的發展無疑是有必要的,張鈸院士提出🕵️♀️🎫,哲學應該走在科技的前面🫑。如果我們對於自己的大腦了解都不夠充分,怎麽去模仿人類的大腦從而創造人工智能呢?
楊田博士認為作為這些人工智能的訓練者👲,我們本身其實也不知道情感究竟是怎樣表達的,該如何傳遞🤴,現在的人工智能應用實際上是在用一個最優化的問題去逼近一個個類似這樣的問題的現實表達。

癡迷的追求
理想與現實的差距並不能阻撓我們的熱情👨💻,雖然距離人工智能的成熟遙遙無期🩳,但無數的研究者都在這條道路上孜孜不倦地向前攻進,時刻準備著敲響第四次工業革命的鐘聲。現在人工智能研究處於爆發期💨,5月發布的《中國新一代人工智能發展報告2019》顯示各國人工智能戰略布局進一步升級,人工智能正在從少數大國關註走向全球布局的新格局。
教會機器思考的想法讓我們著迷,讓我們為之求索🤕🙎🏽♂️,人工智能將會改變什麽?它的未來在哪裏?
張鈸院士表示就目前來說🚵🏼,人工智能目前雖然發展迅速🦯,但是只能做到在某個方面超過人,它全面超過人是不可能的🧏🏻♀️。AI可以下象棋📵,可以打遊戲,但是都是在特定的限製,大量的學習🪁,反復的訓練之下🙅🏿,它的背後還是人在起作用👨🏿🏫🫙。我們采取哲學裏的行為主義流派的定義,如果這個機器表現出來的行為跟人一樣👩🏽💻,我們就認為它就具有智能。所以我們現在做的還是在努力讓機器學會模仿人類行為🔧。
文繼榮教授提出我們今天所有的討論都基於我們對於人工智能的理解,什麽是人工智能,為什麽他寫的程序就叫做人工智能,我的就不算?文教授給的定義是,從輸入和輸出兩方面來判斷:如果程序的輸出結果是確定可預測的,就不是人工智能;如果輸出是模糊的,是帶有不確定性的,可以由精度來衡量,比如人臉識別95%👩🏻💼,就是人工智能。也就是說如果程序能夠應付輸入環境的多樣性、變化性🫱🏿🛁,同時輸出結果還得到比較高的精度🈷️,就是人工智能🧑🏻🎨。“不精確的東西、對結果有很強的容忍性的場合是將來人工智能會成功的地方。”
楊田博士表示😽,就目前對人工智能的定義來說,它可以把很多東西都做得挺好,比如,對話、語音合成。但離通過圖靈測試遠得很🔶。就現在來說🏊🏻♀️,語音相關的技術以及自動駕駛方面的技術其實有很多離實際應用很近。
正如蒸汽機剛剛發明😮💨,聽見轟隆巨響而不覺自己正在窺見一場偉大的革命的工業革命時代的人們一樣👩🏿🦳,我們也許正在見證未來,正在開啟一個偉大的新時代。

憂:隱私與安全孰輕孰重
面對隱私與安全的抉擇,美國與中國各執一端。5月14日,美國舊金山監事會通過一條新禁令,決定禁止該市所有單位使用人臉識別技術,包括警察局等政府部門,成為全球首個推出人臉識別禁令的城市👩🏿🦳。
與此同時,中國發展出完備的天眼系統😔,通過應用人工智能、視頻圖像處理等多種專業技術🍉,能在第一時間對人臉信息進行捕捉和匹配。教室裏有攝像頭對準學生,時刻捕捉學生的一舉一動👨👩👧👦;過馬路不小心闖了紅燈,你的照片會立即與身份信息匹配,出現在路邊的大屏幕上……
人臉識別可以被用於抓捕罪犯、保障安全,在教室安裝攝像頭也可以保護學生,避免紅黃藍幼兒園事件類似的悲劇。但這項技術也有極強的侵入性,有一雙眼睛在時刻註視著你,獲取你的信息🧜🏻♂️,而你永遠不知道這些信息會被用於做什麽🐨。
張鈸院士談到🤲🏻,不同的做法背後折射了中西方不同的價值觀🌻,在個人利益和公共利益沖突的時候,中國選擇公共利益👰,西方強調個人利益🪼。如何平衡公共利益和個人利益,是一個非常嚴肅🤌🏼、需要認真研究的問題。隱私與安全我們都不能輕易割舍,就看誰能做到更好的平衡。
文繼榮教授也認為中西方目前的做法都過於極端,目前有些數據的搜集是完全沒有必要的🖕🏽。西方因為過於強調隱私保護,對大數據人工智能產業的發展造成很大的影響,但是中國也不應該純粹為了發展人工智能產業而忽略隱私保護🫶🏿。
楊田博士認為,現在的社會我們或多或少都從個性化推薦獲得了便利,這其實就是通過向系統出賣隱私而換來的。攝像頭的存在確實起到改善治安環境的作用。中國有句古話“舉頭三尺有神明”,過去科學還沒有那麽發達的時候,大家相信自己的一舉一動有神在上面看著,從而約束自己不做壞事🏃➡️。現在⚫️,我們不相信神了👩🏭,發現自己沒有約束👊,這其實給所有人帶來損害。這種情況下☛,這些技術手段起到了威懾作用✌🏽👐🏼,技術成為了新時代的神🛵🚬。
現在的邊界在於🦻🏿🥶,如果選擇安全,我們要如何保證數據不會被濫用👩🏿🚀?很多事情容易越界,如何守住我們的邊界,是非常值得慎重思考的。

懼🐎:未來的AI武器
人工智能武器是具有指揮高效化🧏🏽♂️,打擊精確化🫴🏿,操作自動化🐩🙍🏻♀️,行為智能化等特點的智能武器,它可以有意識地尋找🪤、辨別需要打擊的目標,具有辨別自然語言的能力,是一種會思考的武器系統。
文繼榮教授表示,我們對AI的恐懼主要來自於對它自主性的害怕,對它可能脫離人控製的恐懼。
最近一段時間,很多知名人士都對人工智能武器表示了抵製,認為機器人有朝一日將會控製人類🧖🏻♂️。但是這種說法其實並不合理,至少在短期內不合理。張鈸教授說,人類的意誌才是戰爭的根本,機器只是被操控的工具。戰爭不管發展到什麽程度👩🎨,最後都是按照人類的意誌進行的👮🏽。危險在人,而不在機器⚓️。所謂無人機🥉⌛️,背後也是有人在地上操控🐎。
也許人工智能武器的問題0️⃣,不在於它們將會控製世界,而在於它們非常容易被重新編程🕟,因此任何人都能夠以低得驚人的預算,製作出一臺濫殺無辜的高效機器🥵🧑🏻🦽➡️。機器的殺傷力是巨大的🕕,楊田博士提問的,我們能夠允許在沒有經過人類審判的情況下讓武器去消滅一個人嗎?
文繼榮教授認為,應該對AI武器進行分級,和自動駕駛類似。根據智能體面對環境多樣性或者變化性時的處理程度來定。分級是幫助我們更好地理解現在的人工智能所處的階段和接下來要做的事情的一個途徑。
AITime由一群關註人工智能發展的青年人創辦,旨在發揚科學思辨精神,邀請各界人士對人工智能理論🛠、算法、場景🦕📼、應用的本質問題進行探索,展開辯論🪗,碰撞思想,打造人工智能知識分享的策源地和聚集地。