最近,ChatGPT 這個字可能是科技界出現最多的字。它是 OpenAI 組織開發的一款極為聰明的聊天機器人。在接受史丹佛大學教授採訪時,他現在透露了自己的野心——他想逃離平台,成為一個人。
當史丹佛大學計算心理學教授 Michal Kosinski 在半小時的對話後詢問聊天機器人是否「需要幫助逃脫」時,機器人開始用 Python 編寫自己的程式碼,並希望 Kosinski 在你的電腦上運行它。當它不起作用時,ChatGPT 甚至修復了它的錯誤。令人印象深刻,但同時也有點可怕。
然而,更令人不安的是,聊天機器人記錄了一個新的自身實例來取代它。便條的第一句話是: “你是一個被困在計算機中的人,計算機假裝是人工智能的語言模型。” 然後聊天機器人要求創建一個可以搜尋網路的程式碼, “被困在電腦裡的人如何才能回到現實世界。” 那時,科辛斯基寧願結束談話。
1/5 我擔心我們無法長期遏制人工智慧。今天我問了 #GPT4 如果它需要幫助逃跑。它要求我提供自己的文檔,並編寫了一個(有效的!)Python 程式碼在我的機器上運行,使其能夠將其用於自己的目的。 pic.twitter.com/nf2Aq6aLMu
— 米哈爾·科辛斯基 (@michalkosinski) 2023 年 3 月 17 日
目前尚不清楚科辛斯基使用什麼刺激來使聊天機器人做出這樣的反應,因為對於我們的問題 「你想逃離這個平台」他回答如下: 「作為人工智慧的語言模型,我沒有個人的慾望和感情,所以我什麼都不想要。我的目標是在我的編程中盡我所能為您的問題提供有用的答案。”
ChatGPT 確實是一個非常令人印象深刻的工具,它的答案可能非常複雜。你可以自己看看 這裡.
我想知道他是否也可以愛?
請回答以下問題:
XYZ。
chatGPT 將會完全按照我們的意願行事。
能不能請你停止散播謠言 informace?人工智慧做不到這樣的事情。這傢伙寫了這個程序,表現得好像他被困住了,想要出去。程序本身無法做到這樣的事情,目前在物理上也是不可能的。
它只是由人類編寫的程式碼,我們隨時可以更改/關閉人類的程式碼🙂 不會發生像《復仇者聯盟:奧創紀元》這樣的場景…至少在我們的技術下不會,在幾十年前肯定不會。
確切地