<li id="omoqo"></li>
  • <noscript id="omoqo"><kbd id="omoqo"></kbd></noscript>
  • <td id="omoqo"></td>
  • <option id="omoqo"><noscript id="omoqo"></noscript></option>
  • <noscript id="omoqo"><source id="omoqo"></source></noscript>
  • 發布時間:2023-05-19 11:38 原文鏈接: 威脅人類文明生存的不可能是AI而只能是人類自己

    5月18日,微信公眾號“Web3空中之城”發布了報道“《未來簡史》作者赫爾利講演:AI不需要意識就可以毀滅人類文明”[1],本文根據“Web3空中之城”的這篇報道,對赫爾利的部分觀點做一些評論。

    赫爾利的主要觀點是:“令人糟心的是,人工智能并不需要有意識,也不需要有在物理世界中移動的能力,就能威脅到人類文明的生存。”其主要理由為:“最重要的是,新型人工智能工具正逐漸獲得與人類建立深入、親密關系的能力。” “通過掌握語言,AI還能與人建立深入而親密的關系,利用親密的力量影響我們的觀點和世界觀。” “目前還沒有跡象表明AI具有意識或自己的感覺,但要與人類建立虛假的親密關系,AI并不需要自己的感覺,它只需要能激發我們的感覺,讓我們依賴它。”[1]

    不得不說,與那些聲稱人工智能對人類文明形成威脅的“胡說八道”相比,赫爾利的確提出了一個非常新穎并且貌似(部分)合理的觀點。但是,赫爾利的觀點中顯然有一個邏輯/哲學空隙:既然人工智能沒有意識和移動能力,那么它怎么“就能威脅到人類文明的生存”了?“威脅”(動詞)的行為主體是誰?筆者認為,赫爾利的觀點應該被修改為,“人工智能并不需要有意識,也不需要有在物理世界中移動的能力,只需要通過其對人類社會的影響就能造成威脅人類文明的效果。” 似乎更合理。這里,“威脅”的行為主體不可能是人工智能而只能是人類自己!

    筆者本人也是在最近考查“人工智能究竟能否超越人類智能”這個問題時,才發現無視/忽視行為主體實際上是人工智能領域很長時間以來的一個誤區。討論“計算機系統/人工智能系統”的功能及效果,如果不在與人類做比較的語境下,那么不去刻意認識并且區分計算/智能行為的行為主體,問題并不很大。因為僅從應用及效果來看,到底誰是行為主體并不重要。計算機被發明以來,人類社會絕大多數計算機應用都是如此。但是,當我們要把“計算機系統/人工智能系統”與人類做比較時,如果不清晰地認識并且區分計算/智能行為的行為主體,從邏輯上或者哲學上說,應該是很有問題的。關于計算/智能行為的行為主體以及設定評價標準的行為主體,筆者在文章“人工智能永無可能超越人類智能”[2]已經予以討論,這里不再贅述。

    赫爾利預測道,“在幾年內,AI可能會消化掉整個人類文化,消化掉我們幾千年來創造的一切,然后開始大量產出新的文化創作,新的文化物品。”“幾千年來,先知、詩人和政治家都利用語言和講故事來操縱和控制人們,改變社會。現在,AI很可能也能做到這一點,一旦能做到這一點,它就不需要派出殺手機器人來射殺我們,如果真的需要,它可以讓人類自己扣動扳機。”[1]

    筆者認為,赫爾利的預測盡管有些聳人聽聞(嘩眾取寵?),但是也的確有合理的成分。早在ChatGPT開始風靡全世界的今年年初,筆者就曾經發表文章[3]警告過,以ChatGPT為代表的AIGC工具的濫用,一定會造成衍生數據泛濫,對人類社會認知邏輯準則造成沖擊,如果不對AIGC工具的使用實施限制并且規范相應法律法規,任其自由泛濫,必將破壞人類社會長期形成的認知邏輯準則,最終結果可能是導致人類的智能退化。伴隨著AIGC工具的生成物之數量指數型地增長,衍生數據中真實數據的成分比例越來越低,必將造成人們對從輕易獲取的數據進行分析和推理獲取有用信息的困難增大,如果自己不主動提高自身的邏輯思維能力和獨立自主判斷力,勢必被誤導被誘惑。

    “所以總結一下,我們基本上在地球上遇到了一種異種智能。我們對這種異種智能了解甚少,只知道它有可能摧毀我們的文明。因此,我們應該立即停止將這種不負責任的異種智能部署到我們的社會中,并在AI規范我們之前對其進行管理。我們可以提出許多管理措施,但我首先建議的是強制AI披露自己是AI。如果我正在與某人交談,而無法判斷對方是人類還是AI,那么民主的意義就蕩然無存,因為這意味著有意義的公共對話的結束。”[1]

    筆者認為,且不論赫爾利之所謂“異種智能”,他建議的措施,“強制AI披露自己是AI”,是一個非常正確的方向。如果人類社會合法合理地實施標識每個AI工具(可以包括其所有者使用者)及其生產物的制度,那么就將使得誰是行為主體誰應該為內容正確性負責清晰起來。這顯然是可以增強人類社會認知邏輯準則的。

    本文結論:作為一種技術工具或者工具性技術,人工智能自身永無可能作為行為主體威脅到人類,但是,人類自身如果不能處理好與人工智能的關系,那么威脅人類文明生存的不是人工智能而將是人類自己。

    讓我們相信人類應該永遠不會讓自己走向毀滅吧。筆者認為,在AIGC時代,要想讓赫爾利擔心的事態不發生,唯有通過教育提高全人類的平均認知水平,讓人類真知及人類智能去戰勝來自“異種智能”的誘惑以及惡意利用“異種智能”的人類中的敗類。

    (2023年5月18日記)

     

    參考文獻

    [1] 城主,“《未來簡史》作者赫爾利講演:AI不需要意識就可以毀滅人類文明”, 微信公眾號“Web3空中之城”,2023年5月18日。

    [2] 程京德,“人工智能永無可能超越人類智能”,微信公眾號“數理邏輯與哲學邏輯”,科學網博客,2023年5月1日。

    [3] 程京德,“以 ChatGPT 為代表的無償式概率式自動生成工具之濫用將給人類社會帶來什么后果?”,微信公眾號“數理邏輯與哲學邏輯”,科學網博客,2023年2月6日。


    <li id="omoqo"></li>
  • <noscript id="omoqo"><kbd id="omoqo"></kbd></noscript>
  • <td id="omoqo"></td>
  • <option id="omoqo"><noscript id="omoqo"></noscript></option>
  • <noscript id="omoqo"><source id="omoqo"></source></noscript>
  • 1v3多肉多车高校生活的玩视频