剛剛過去的2023年似乎要在人工智能的發展歷史上留下濃重的一筆。受聊天機器人ChatGPT于2022年11月推出加持,2023年成為了人工智能發展史的一個轉折點,甚至有媒體將其稱為“人工智能元年”。

 

邁入2024年不久,推出ChatGPT才一年多的美國開放人工智能研究中心(OpenAI)又在人工智能視頻生成領域拋出新花樣,被業內視為人工智能技術的又一次進步。

 

近日,新京報記者對話美國西北大學計算機科學教授克里斯蒂安·哈蒙德(Kristian Hammond)。哈蒙德表示,可以說2023年是人們終于意識到人工智能的一年,而2024年將是人工智能整合之年,人們會想辦法把這些新奇的“玩具”運用到生活之中。

 

談及外界對人工智能快速發展的擔憂,哈蒙德將構建人工智能想象成撫養一個孩子,希望它能比自己更聰明、更成功,同時不傷害任何人,努力打造人類和人工智能的伙伴關系,并肩戰斗。


新京報記者對話美國西北大學計算機科學教授克里斯蒂安·哈蒙德。連線視頻截圖

 

“2024年將是人工智能整合之年”

 

新京報:許多媒體將過去一年稱為“人工智能之年”,也有不少詞典的年度詞語都與人工智能相關。你會如何形容人工智能在2023年取得的進展?

 

哈蒙德:我認為2023年是人們意識到人工智能的一年,2024年將是人工智能整合的一年,在這一年里,我們會想出辦法把這些閃亮、可愛、新奇的“玩具”用到我們的生活、業務之中,利用它們來造福人類。

 

新京報:縱觀人工智能發展歷史,有哪些重要的里程碑時刻?

 

哈蒙德:人工智能起步的時候,(人們)認為推理就像邏輯,我們必須寫下所有的規則,但這點很難做到。后來我們遇到了一個關鍵轉折點,發現機器學習可以幫助人們自動建立這些規則,但我們沒有足夠的數據,也沒有足夠的計算能力。

 

在獲得了數據和計算能力后,我們來到了新的轉折點,發現人工智能可以進行大量學習,學會如何控制自動駕駛的汽車,如何識別名字、面孔和物體,甚至別人的話語,還學會了如何翻轉技術,預測圖像可能是什么樣子,人們的下一句話可能會說些什么。

 

我們已經看到了這個過程。事實上,歸結起來這其中有兩種推理系統。一種是非??焖俚耐评?,不斷識別人們在說什么內容。另一種是更慢、更留心的推理,試圖弄懂他們說話背后的含義,以及自己應該相應做什么。接下來,我們需要弄清楚如何將這兩種技術結合起來,它們都很強大,但是都不完善。

 

“網絡上的任何事都離不開人工智能”

 

新京報:總體而言,截至目前人工智能給人類的生活帶來了哪些機遇和變化?

 

哈蒙德:我們在網絡上做的任何事情都離不開人工智能。例如,搜索引擎上會有人工智能組件預測你想要尋找的是什么,服務平臺在提供信息、產品或進行推薦的時候,背后也都有人工智能的痕跡。所有與語音識別、面部識別有關的內容,也都有人工智能組件發揮作用。

 

有趣的是,我們開始思考如何把這些組成部分結合起來,看看它們都在做什么,哪些對我們有益,哪些有害。有時候我們可能會做出看上去非常有趣,但實際卻產生危害的內容。識別出這些傷害并找出避免或補救它們的方法,這一點非常重要。因為我們希望人工智能與我們合作,我們不想生活在一個一切都已為我們做好的世界中,而是更希望與另一種智能形式共同工作生活。所以需要弄清楚人工智能的缺點與優點,并揚長避短。


OpenAI公司即將推出文本生成視頻產品Sora,引起全球關注。圖/IC photo

 

新京報:伴隨著人工智能帶來的便利與機遇,同時也有潛在的風險。你剛才提到的看上去十分有趣的人工智能也可能會在一定程度上產生有害影響,能否展開講講其可能帶來的挑戰?

 

哈蒙德:例如,在視頻制作之中,使用技術將各部分合并在同一個屏幕之上,這在一定程度上給我們帶來了一個深度造假的世界。就制造冒犯性材料而言,可能把某個人放入某段色情視頻之中,這可能是非常危險的?;蛘哂腥送ㄟ^某些技術加入一個視頻會議,假裝是在場人員的上司,試圖說服其他人將錢轉到另外的賬戶里。人工智能也可能卷入世界重大事件和政治之中,它創造出的圖像并不是真實的,卻十分令人信服,這意味著我們將生活在一個我們不再確定什么是真實的世界之中。

 

還有其他技術雖然吸引人,令人欲罷不能,但也可能產生負面影響。例如,我們生活在一個社交媒體的世界里,但在這里似乎每個人都比我們更加漂亮、更加富有,比我們做得更好,這會在一定程度上導致抑郁。

 

我們已經應用了一系列人工智能相關的技術,現在是我們認真看待它們的時候了,找出我們哪里犯了錯誤,然后改正它們。我們想要的不是一個無法離線的世界、讓我們感到沮喪的世界,更不是一個被謊言包圍的世界。

 

“未來應規范惡意使用,防止技術遭濫用”

 

新京報:人工智能公司也意識到其潛在的風險,試圖打造工具幫助監測虛假誤導內容。然而,有專家擔心總會有人找到辦法繞過這些屏障。在你看來,能否完全阻止人工智能技術被濫用?

 

哈蒙德:這不可能做到,我們必須意識到這一點。例如從Photoshop的角度來講,它的出現意味著我們可以修飾照片,改變過去的記錄,以及改變對過去所發生事情的理解。逐漸我們習慣了它的概念,習慣了在看一張圖片的時候會評估它是否合乎常理。

 

對于所有人來說,我們必須培養一種批判的眼光,意識到出現在我們面前的東西可能并不真實,并弄清楚我們如何為自己提供真正的批判的工具、人性的工具、思考的工具來識別這種情況,避免被欺騙。

 

新京報:2023年召開了首屆人工智能安全峰會、歐盟通過了全球首部人工智能法。你如何評價目前全球對于人工智能使用的監管水平?接下來還需要做哪些工作?

 

哈蒙德:我個人認為歐盟的做法很好。他們很少考慮這種技術或那種技術的本質,而是更多地考慮風險,找出風險所在,并建立風險的等級機制。如果涉及有關人類生命的決定,那么這就是一個非常高風險的情況,因此會在算法、數據和使用方面提出更多要求。

 

例如,我個人并不想讓所有的公共攝像頭一直追蹤自己的位置,我想有自己的隱私,但如果我的孩子失蹤了,我希望每一臺相機中的每一幀圖像都得到使用,看我們能否找到他們。這就是問題所在,技術可以有各種不同的用途,其中一些非常重要,對人類有益,其他則并非如此,需要監管的是其中的差異。隨著技術的發展,它會變得更好、更快、更強,將可以在越來越小的機器上運行,我們無法避免這種情況,但我們可以通過規范惡意使用來避免它被濫用。


當地時間2024年1月24日,德國柏林醫院展示人工智能支持的放射治療,可提供更精確的放射線,從而更有效地治療腫瘤,并將副作用降至最低。圖/IC photo

 

“應打造人類與人工智能的伙伴關系”

 

新京報:談到人工智能,一個總會被提及的問題是,人工智能是否會在未來取代人類的工作。長期而言,你如何看待人與人工智能之間的關系?

 

哈蒙德:從長遠來看,人類認知的方方面面都可以運用到機器上,也就是說,我們會讓機器變得和我們一樣聰明、有創造力以及有直覺。我們從不認為身邊有聰明人是件壞事,我們喜歡這樣,換成智能機器,我們的態度也應該是一樣的。

 

我喜歡把構建人工智能想象成撫養一個孩子,我們當然希望孩子比自己更聰明、更成功,也希望這個孩子不要傷害別人,如果能做到這三點,那就太棒了。打造人工智能時,要意識到它將與我們并肩作戰,我們必須思考該如何讓人工智能系統與我們保持一致,與我們合作。

 

我無法想象人工智能會在人類沒有提前設定計劃的情況下,消滅一切工作或試圖接管一切,當然我們也不應該給人工智能發出這樣的指令。我們應該打造的是人類與人工智能之間的伙伴關系,我們可以建立一個為彼此做更多事情的世界,如果我們花更少的時間勞動,仍然過著美好的生活,關注兄弟姐妹的需要,那將會是一個多么美好的世界,而這正是人工智能可以構建的世界。

 

新京報:在你看來,人工智能將會走得多遠?

 

哈蒙德:我不能給出一個準確的時間表,我們正在(為人工智能)打造人類水平的認知技能,但這也不是終點。人類也是同樣,我們一直在努力變得越來越好,想讓下一代更健康、更聰明,這也是人工智能世界的感覺,它將變得越來越智能,人類與人工智能一起工作,共同把事情完成,互相照顧彼此。

 

新京報記者 欒若曦

編輯 張磊 校對 吳興發