
計算機科學家討論ChatGPT的利弊。Credit: Pixabay/CC0 Public Domain
(神秘的討論地球uux.cn)據by Johns Hopkins University:憑借其模仿人類語言和推理的神奇能力,ChatGPT似乎預示著人工智能的利弊上海外圍(外圍美女)外圍聯系方式(電話微信156-8194-*7106)高端外圍預約快速安排30分鐘到達一場革命。自從硅谷研究實驗室OpenAI在11月發布自然語言處理工具以來,計算機科用戶已經測試了無數應用程序,討論其中包括靈活的利弊聊天機器人可以召喚詩歌和散文,分享食譜,計算機科翻譯語言,討論提供建議和講笑話。利弊
伴隨著興奮而來的計算機科是一些恐懼——技術可能會降低真實的人類寫作和批判性思維,顛覆行業,討論并放大我們自己的利弊偏見和成見。
約翰霍普金斯大學計算機科學助理教授丹尼爾·哈沙比說,計算機科對于那些從事人工智能工作的討論人來說,ChatGPT不僅僅是利弊一夜之間的轟動,而是多年實驗后取得成就的標志,他專門研究語言處理,并研究過類似的上海外圍(外圍美女)外圍聯系方式(電話微信156-8194-*7106)高端外圍預約快速安排30分鐘到達工具。
“ChatGPT似乎是一場突如其來的革命,”他說。"但這項技術多年來一直在逐步發展,最近幾年進展迅速."
然而,Khashabi承認ChatGPT似乎開創了一個前所未有的時代,一個充滿人類進步潛力的時代。“這真的是我們修正對智慧含義理解的機會,”他說。“這是一個激動人心的時刻,因為我們有機會應對新的挑戰和新的前景,而這些過去是我們力所不及的。”
隨著微軟對該工具的投資,OpenAI發布了一個付費版本,谷歌計劃發布自己的實驗性聊天機器人,該中心向Khashabi了解了該技術及其發展方向。
能不能分解一下ChatGPT的工作原理?
第一階段不涉及直接的人類反饋。該模型通過從網絡上回流大量文本來學習語言的結構——例如,來自維基百科、Twitter、Reddit、紐約時報等所有不同語言的句子和段落。它還接受了來自GitHub等平臺的程序員編寫的代碼的訓練。
在第二階段,[通常稱為“自我監督”學習],人類注釋者參與訓練模型變得更加復雜。他們對ChatGPT收到的各種類型的查詢編寫響應,因此該模型學習執行像“就這個主題寫一篇文章”或“修改這一段”這樣的命令。
因為OpenAI坐擁一座金礦,他們有能力雇傭許多注釋者,并讓他們注釋大量高質量的數據。我通過小道消息聽說,最初的系統被輸入了近100,000輪人類反饋。所以這背后有大量的人力。
但OpenAI的秘密武器不是其人工智能技術,而是使用其服務的人。每當有人查詢他們的系統時,他們會收集這些查詢,以使ChatGPT適應用戶正在尋找的內容,并識別他們系統的弱點。換句話說,OpenAI的成功在于贏得了數百萬人使用它的演示。
你個人是如何體驗ChatGPT的?
它可以是一個優秀的寫作和頭腦風暴工具。我可以寫一個我腦海中的想法的摘要,讓ChatGPT更復雜地擴展它,然后挑選我喜歡的結果并自己進一步開發它們或繼續使用ChatGPT。這就是人機協同寫作。正如Twitter上有人恰當地說的那樣,“ChatGPT是你大腦的電動自行車!”
你對它受到的關注和壓力有什么看法?
這是人工智能進步的又一個里程碑,值得慶祝。令人興奮的是,人工智能和自然語言處理越來越接近于幫助人類完成他們關心的任務。
然而,我擔心過分夸大人工智能的狀態。已經取得了進展,但“普遍智能”仍未出現。在過去的幾十年里,每當我們進步的時候,我們都會不斷地修正我們對“聰明”的理解。在20世紀60年代和70年代,我們的目標是創建一個與人類對弈的系統。這樣的例子還有很多。每一次進步,我們都會想:“就是這樣!”但是過了一段時間,炒作就銷聲匿跡了,我們看到了問題并發現了新的需求。
“智能”一直是一個不斷變化的目標,并且很可能繼續保持下去,但我對在解決ChatGPT類系統的缺點方面取得的進展感到興奮。
那些缺點是什么?
ChatGPT編東西很容易。如果你問ChatGPT一些它沒見過的小眾的東西,它會用流暢的議論文式的語言幻覺出事實。例如,如果你問它如何定義“維納斯·大威廉姆斯在哪屆錦標賽上贏得她的第八個大滿貫?”它會為你補上一個答案,盡管維納斯·大威廉姆斯已經贏得了七個大滿貫。正如許多媒體報道的那樣,她想贏得她的第八個冠軍,但她沒有。這個模型混淆了“想贏”和“贏了”這兩個概念。
問題是它做得如此流暢。它可以給你垃圾,但在如此流暢,連貫的語言中,如果你不是該領域的專家,你可能會相信它說的是真的。這讓我很擔心,我認為我們人類在看似清晰的輸出面前很容易受騙。
另一方面,ChatGPT有什么令人興奮的地方?
我們現在有了這些工具,可以產生有創造性的和流暢的語言,這是我們花了多年時間解決的一個挑戰。作為一名人工智能科學家,我的興奮之處在于接下來的步驟,我們有新的問題需要人工智能來解決。
我對人工智能的目標——逆向工程人類智能——不太感興趣,而更感興趣的是智能增強。我認為使用人工智能使人類能夠做得更好并增強人類能力是一個有價值的目標。我對這種協作系統感到興奮。
你如何看待技術的發展?
我們仍處于這種變化之中,但我們將繼續使語言模型更有效,從而產生更緊湊但質量更高的模型。因此,我們將在任何地方看到非常可靠的對話代理形式。未來的模型將是你的網絡導航助手,完成我們現在自己做的各種基于網絡的普通任務。
同樣的一套技術也開始進入現實世界。當前的模型,如ChatGPT,不能感知它們的環境。比如他們看不到我的手機在哪里,看不到我有多累。很快我們就會看到有眼睛的ChatGPT。這些模型將使用不同形式的數據(文本、視覺、聽覺等。),這是他們每天為我們服務所必需的。
這將導致基于其物理環境數據的自我監督機器人,包括物理對象、人類及其交互。這里的影響將是巨大的。在不到10年的時間里,我們日常使用的任何物理設備——汽車、冰箱、洗衣機等等。—將成為您可以與之交談的對話代理。我們還將看到機器人在解決今天不可能解決的問題方面驚人的強壯。想象一下,你要和你的Roomba談論你想做或不想做的事情,就像你和ChatGPT交談一樣。
同樣重要的是,不要忽視這些技術將如何在社會層面上改變事物。未來的多模態模式——有眼睛和耳朵的聊天機器人——將無處不在,并將影響一切,包括公共安全。但現在問題來了:在一個我們不斷被有眼睛和耳朵的人工智能模型監視的社會里,我們的自由和隱私會是什么樣子?
這聽起來像是著名小說《1984》描述的反烏托邦社會。像任何其他技術一樣,自我監督模型是一把雙刃劍。我們現在能做的最好的事情就是保持警惕,在應用程序出現之前預見并討論這些問題。理想情況下,我們需要通過從ChatGPT等例子向其未來擴展進行外推,來開發確保我們的自由和公平的框架。我很樂觀,我們會的。