“我一直認為 AI (人工智能)是人類正在研究的最深刻的技術,比火、電或我們過去所做的任何事情都要深刻。”當地時間4月16日,在哥倫比亞廣播公司(CBS)的采訪節目《60分鐘》里,谷歌及其母公司Alphabet的首席執行官桑達爾·皮查伊(Sundar Pichai)表達了他對人工智能的快速發展及其對社會潛在威脅的擔憂。
皮查伊認為,社會需要適應新技術,各行各業或許都會受到影響,作家、會計師、建筑師,以及軟件工程師在內的“知識工作者”或將被人工智能顛覆。
“新技術將影響每家公司的每一種產品。”皮查伊舉例,假如你是一名放射科醫生,想象一下從現在起的五年到十年,會有一個人工智能與你共同工作,當你早上起來面對上百件待處理任務時,它能夠告訴你哪些是需要優先處理的最嚴重的事件。
對于新技術帶來的安全問題,皮查伊表示,虛假信息、假新聞和圖像方面有很大問題,他強調生成式人工智能的風險之一是深度偽造視頻(deep fake videos),在這些視頻中,一個人的行為可能會被偽造,例如發布從未說過的某種言論。
“這些陷阱說明了監管的必要性。”他說道,“制作這些深度偽造視頻的人必須承擔后果。任何與人工智能合作過的人都會意識到,這是如此不同、如此深刻的東西,以至于我們需要社會法規來思考如何適應。”
因此他強調必須有監管存在,“我們周圍已經發生的技術,將比我們以前見過的任何東西更有能力。”
在采訪中皮查伊表示,讓他夜不能寐的一件事是谷歌的AI技術被以有害的方式利用。
在OpenAI推出ChatGPT后,谷歌開始部署自己的聊天機器人Bard。目前,谷歌一直對Bard采取謹慎的態度,強調這只是“實驗性”產品。
據介紹,Bard內置安全過濾器,以幫助抵御惡意用戶的威脅。皮查伊表示,公司需要不斷更新系統的算法,以打擊虛假信息活動并檢測深度造假行為,比如檢測計算機生成的看似真實的圖像。
此前,谷歌發布了一份關于“監管人工智能建議”的文件。皮查伊表示,社會必須迅速適應監管濫用行為的法律和條約,以確保人工智能對世界的影響。
皮查伊強調,“這不是一家公司可以決定的。這也是為什么我認為新技術的發展不僅需要工程師的努力,還需要社會科學家、倫理學家、哲學家等共同參與。”
當被問及社會是否為像Bard這樣的人工智能技術做好準備時,皮查伊回答說,“一方面,我覺得沒有,因為我們的思考和適應的速度趕不上技術發展的速度。”
不過,他補充說自己很樂觀,因為與過去的其他技術相比,“開始擔心其影響的人”很早就有所準備了。