桑達爾·皮查伊《Sundar Pichai》 視覺中國 資料圖
『我一直認為 AI 《人工智能》是人類正在研究的最深刻的技術,比火、電或我們過去所做的任何事情都要深刻』當地時間4月16日,在哥倫比亞廣播公司《CBS》的采訪節目《60分鐘》裡,google及其母公司Alphabet的首席執行官桑達爾·皮查伊《Sundar Pichai》表達了他對人工智能的快速發展及其對社會潛在威脅的擔憂。
皮查伊認為,社會需要適應新技術,各行各業或許都會受到影響,作家、會計師、建築師,以及軟件工程師在內的『知識工作者』或將被人工智能顛覆。
『新技術將影響每家公司的每一種產品』皮查伊舉例,假如你是一名放射科醫生,想象一下從現在起的五年到十年,會有一個人工智能與你共同工作,當你早上起來面對上百件待處理任務時,它能夠告訴你哪些是需要優先處理的最嚴重的事件。
對於新技術帶來的安全問題,皮查伊表示,虛假信息、假新聞和圖像方面有很大問題,他強調生成式人工智能的風險之一是深度偽造視頻《deep fake videos》,在這些視頻中,一個人的行為可能會被偽造,例如發佈從未說過的某種言論。
『這些陷阱說明了監管的必要性』他說道,『制作這些深度偽造視頻的人必須承擔後果。
任何與人工智能合作過的人都會意識到,這是如此不同、如此深刻的東西,以至於我們需要社會法規來思考如何適應』
因此他強調必須有監管存在,『我們周圍已經發生的技術,將比我們以前見過的任何東西更有能力』
在采訪中皮查伊表示,讓他夜不能寐的一件事是google的AI技術被以有害的方式利用。
在OpenAI推出ChatGPT後,google開始部署自己的聊天機器人Bard。
目前,google一直對Bard采取謹慎的態度,強調這隻是『實驗性』產品。
據介紹,Bard內置安全過濾器,以幫助抵禦惡意用戶的威脅。
皮查伊表示,公司需要不斷更新系統的算法,以打擊虛假信息活動並檢測深度造假行為,比如檢測計算機生成的看似真實的圖像。
此前,google發佈了一份關於『監管人工智能建議』的文件。
皮查伊表示,社會必須迅速適應監管濫用行為的法律和條約,以確保人工智能對世界的影響。
皮查伊強調,『這不是一家公司可以決定的。
這也是為什麼我認為新技術的發展不僅需要工程師的努力,還需要社會科學家、倫理學家、哲學家等共同參與』
當被問及社會是否為像Bard這樣的人工智能技術做好準備時,皮查伊回答說,『一方面,我覺得沒有,因為我們的思考和適應的速度趕不上技術發展的速度』
不過,他補充說自己很樂觀,因為與過去的其他技術相比,『開始擔心其影響的人』很早就有所準備了。