“過度依賴ChatGPT技術,會將‘常人’的意見加以建制化與機械化,由此使社會意識形態的板結現象更為嚴重,并加劇人類‘自欺’現象的泛濫。”近日,在復旦大學慶祝建校118周年系列學術報告中,復旦大學哲學學院教授徐英瑾以《從人工智能哲學的角度看ChatGPT》為題,剖析了ChatGPT技術可能存在的弊端。
運用人類語言順暢聊天,并非認定智能的必要條件
在史蒂文·斯皮爾伯格導演的電影《人工智能》中,一對因車禍痛失愛子的夫妻收養了人工智能“大衛”。在被人類養育的過程中,大衛漸漸產生了“我到底是一個機器,還是一個人”的困惑。
這背后隱含了一個深刻的哲學問題——機器能夠思考嗎?正是這個疑問,當年引發了徐英瑾對人工智能的學術興趣。
“哲學的一大特點是思考大問題、澄清大問題。”徐英瑾將哲學形象地比作“爬山虎”,認為哲學可通過“X+”的方式附著在數學、物理學等諸多學科上,通過提供反思獲得養料,但究其根本,哲學仍需要回到形而上學,接受哲學“本部”的指令。
探討和理解人工智能,首先要回歸對于“智能”這一概念的辨析。徐英瑾從輸入與輸出之間的映射關系切入,介紹了人工智能之父阿蘭·圖靈提出的行為主義標準。判斷一物是否有言語行為從而認定其是否智能,這便是著名的圖靈測試原理。
沒有通過圖靈測驗,是否仍有可能被認定為人工智能?徐英瑾以不通現代語言的土著、善于筑巢的鳥類以及設想中的外星人為例,闡釋了與人類順暢溝通的言語行為并非認定智能的必要條件,而只是充分條件。
對于人工智能的發展,社會各界的觀點目前可大致分為樂觀論、悲觀論和泡沫論三類。支持“泡沫論”的華裔科學家、斯坦福大學教授李飛飛曾說,不要高估現在人工智能的發展水平,從物理學角度看人工智能,它目前還處于前伽利略階段,徐英瑾對此表示贊成。
真正識別人類精神內核,人工智能仍在路上
“理解ChatGPT的本質并不困難。”徐英瑾介紹,ChatGPT的英文全稱是“Chat Generative Pre-trained Transformer”,其中Chat(聊天)一詞,在人工智能領域地位特殊,這源于圖靈測驗的一項發明——早已出現的“聊天盒(chatbox)”技術。而ChatGPT作為一種大型語言模型,是“傳統神經元網絡技術+深度學習技術”的進階版,通俗來說,就是通過數學建模建造出一個簡易的人工神經元網絡結構。
盡管ChatGPT的語言通順程度和機器翻譯水平令人贊嘆,但談到這種模型與人類的根本區別,徐英瑾指出,人工智能的進步,實際上是統計學意義上的進步,是通過不斷迭代的大規模數據集和人工語料訓練后“野蠻投入”的結果。因此,縱使ChatGPT看到“路遙知馬力”能接上“日久見人心”,但它并不能真正理解中文詩詞的精妙內涵。
從海德格爾哲學的角度看,這種人工智能系統訓練方式將不得不把“常人”的意見加以建制化與機械化,由此使得社會意識形態的板結現象變得更為嚴重。換言之,從機器的視角看,一個正確的意見就是被大多數人所認可的意見,因此,少數“異類”提出的“離經叛道”之說在技術上就會被過濾掉。
“這需要我們提高警惕。”徐英瑾強調,“假若ChatGPT技術在托勒密的時代就出現,哥白尼的‘日心說’恐怕會永遠被判定為錯誤答案。”
而由于人工智能訓練與當下總是存在時間差,無法面對未來,是ChatGPT這類人工智能的最大瓶頸所在。徐英瑾表示,過度依賴ChatGPT,可能會讓人喪失反思力與對未來的把握能力,陷入過度“自欺”的狀態。
人工智能未來到底走向何處?在他看來,要想真正走通人工智能道路,需要在結合節儉性算法與推理引擎的基礎上,兼顧哲學思維帶來的“破”與“立”。技術的跨越必然需要帶來應用場景中的深入觀察,無論人工智能變得多聰明,適應與滿足人類發展的需要是根本指向。大數據的訓練很難讓機器對語境形成精準識別,如何突破語料的偽裝,真正識別人類的精神內核,人工智能仍在路上。