庫茲韋爾認為,人工智能可以全面超越人類智能,而且超越的速度遠超過人們的預期。他認為,2045年是“奇點”到達的時期,這將是極具深刻性和分裂性的時間點,非生物智能在這一年將會10億倍于今天所有人類的智慧。④當然,大多數科學家和人工智能專家對人工智能全面超越人類持否定態度,認為這是杞人憂天式的臆想,對人工智能征服人類的擔心就像擔心火星上塞車一樣。航天器發明之前,其可能墜毀的風險擔憂并沒有阻止航空航天事業的發展。從這一點說,我們幾乎沒有可能阻止人工智能的快速發展,但從現在起,給予人工智能更多的人文關注、價值判斷和理性思考,是一種比較正確的態度。事實上,人文社會科學的發展應該走在自然科學的前面,在人工智能安全問題之前做好充分的理論準備。
第二類問題是人工智能可能引發的安全問題。其一是操作權失控或惡意使用導致的安全威脅。人工智能對人類的利害作用取決于掌控和使用人工智能的人。例如,黑客可能通過智能方法發起網絡攻擊,還可利用人工智能技術非法竊取私人信息。其二是技術失控或管理不當所致的安全問題。某些技術缺陷也會導致人工智能系統出現安全隱患,比如深度學習采用的黑箱模式會使模型可解釋性不強,機器人、無人智能系統的設計、生產不當會導致運行異常等。
第三類是人工智能倫理規范的挑戰。倫理問題是人工智能技術應用值得關注的問題。如人工智能的行為規則問題,人工智能技術的應用正在將一些生活中的倫理性問題在系統中規則化。系統的研發設計必須要與社會倫理匹配對接,機器規范和人類規范必須兼容,從而導致社會損害。再如機器人的“人格”和權力問題。目前在司法、醫療、指揮等領域正在發揮作用,不遠的將來,人工智能在審判分析、疾病診斷上將替代人類。但是,在給機器授予決策權后,人們不僅要考慮人工智能的安全風險,而且還要面臨一個新的倫理問題,即機器獨立行使專業決策的資格。有倫理學家認為,未來機器人不僅有感知、認知和決策能力,人工智能在不同環境中學習和演化,還會形成不同的個性。所以機器人使用者需要承擔類似監護人一樣的道德責任甚至法律責任,以免對社會文明產生不良影響。⑤
第四類問題是人工智能可能引發的隱私問題。大數據驅動模式主導了近年來人工智能的發展,隱私問題是數據資源開發利用中的主要威脅之一,人工智能應用中必然存在隱私侵犯風險。比如數據采集中的隱私侵犯。隨著各類數據采集設施的廣泛使用,智能系統掌握了個人的大量信息,如果出于商業目的非法使用某些私人信息,就會造成隱私侵犯。再如云計算中的隱私風險。因為云計算技術使用便捷、成本低廉,許多用戶開始將數據存儲至云端。將隱私信息存儲至云端后,這些信息就容易遭到各種威脅和攻擊。目前在許多人工智能應用中,云計算已經被配置為主要架構,因此云端隱私保護是需要考慮的問題。還有知識抽取中的隱私問題。由數據到知識的抽取是人工智能的重要能力,知識抽取工具正在變得越來越強大,無數個看似不相關的數據片段可能被整合在一起,識別出個人行為特征甚至性格特征。但是,這些個性化定制過程又伴隨著對個人隱私的發現和曝光,如何規范隱私保護是需要與技術應用同步考慮的一個問題。⑥
